JP6455234B2 - 行動検出方法及び行動検出装置 - Google Patents

行動検出方法及び行動検出装置 Download PDF

Info

Publication number
JP6455234B2
JP6455234B2 JP2015041791A JP2015041791A JP6455234B2 JP 6455234 B2 JP6455234 B2 JP 6455234B2 JP 2015041791 A JP2015041791 A JP 2015041791A JP 2015041791 A JP2015041791 A JP 2015041791A JP 6455234 B2 JP6455234 B2 JP 6455234B2
Authority
JP
Japan
Prior art keywords
head
bed
line
rising
forward bending
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015041791A
Other languages
English (en)
Other versions
JP2016158952A (ja
Inventor
慎也 生田目
慎也 生田目
村下 君孝
君孝 村下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015041791A priority Critical patent/JP6455234B2/ja
Priority to CN201610105158.4A priority patent/CN105938540B/zh
Priority to US15/056,039 priority patent/US9477880B2/en
Publication of JP2016158952A publication Critical patent/JP2016158952A/ja
Application granted granted Critical
Publication of JP6455234B2 publication Critical patent/JP6455234B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1115Monitoring leaving of a patient support, e.g. a bed or a wheelchair
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Description

本発明は、行動検出方法及び行動検出装置に関する。
医療や介護などの施設において、看護側が気付かないうちに患者がベッドから離れ、徘徊や転倒等の事故が起きることがある。かかる事故の発生を抑制するために、患者のベッドからの離床、例えば立ち上がりに関する動作を検出する技術が提案されている。
例えば、ベッドの頭部側の上方、例えばヘッドボードの真上などの位置に患者等の頭部を撮影するカメラが設置される。このカメラにより撮像される画像から検出された頭部の位置がベッドの両端を基準に設定されたラインを超えるか否かにより、患者等の離床を検出するものがある。
特開2012−170483号公報 特開2013−149205号公報
しかしながら、ベッドの頭部側の上方にカメラを設置すると、治療や看護の妨げとなる場合があるので、必ずしもベッドの頭部側の上方にカメラが設置できるとは限らない。このことから、ベッドの斜め方向にカメラが設置される場合、ベッドの両端を基準にベッドからの離床を判定するラインを設定すると、カメラが撮像する画像でベッドが映る領域に上記の離床の判定に用いるラインが設定される場合がある。この場合、ベッド上で行われる立ち上がり以外の動作、例えば寝返りや座位中の身動きがある場合でも頭部がラインを通過する場合があるので、離床の誤検出が発生する。
1つの側面では、本発明は、離床検出に用いるカメラの設置位置の自由度を高めることができる行動検出方法及び行動検出装置を提供することを目的とする。
一態様の行動検出方法は、コンピュータが、画像から頭部の位置を検知し、前記頭部の位置に基づいて前記画像のベッド領域で検出対象者がベッドの幅方向に腰掛け、腰掛けた状態から立ち上がる際の前かがみになる動作を検知し、前記頭部の移動が前かがみと検出された場合に、前記頭部の移動経路に基づいて、前記前かがみの最下点と、前記ベッドの脇に立ち上がった際の頭部の位置との間に前記検出対象者の離床を判定する立ち上がり検出ラインを前記前かがみの動作が検知される前かがみ検出ラインと重ならない位置へ動的に設定し、動的に設定された立ち上がり検出ラインを頭部が通過した場合に立ち上がり動作を検出する処理を実行する。
離床検出に用いるカメラの設置位置の自由度を高めることができる。
図1は、実施例1に係る行動検出システムに含まれる各装置の機能的構成を示すブロック図である。 図2は、地面座標系の一例を示す図である。 図3は、カメラ座標系の一例を示す図である。 図4Aは、地面座標系の矢視図の一例を示す図である。 図4Bは、地面座標系の矢視図の一例を示す図である。 図4Cは、地面座標系の矢視図の一例を示す図である。 図5Aは、カメラ座標系の直交平面の一例を示す図である。 図5Bは、カメラ座標系の直交平面の一例を示す図である。 図5Cは、カメラ座標系の直交平面の一例を示す図である。 図6は、第1のパラメータの一例を示す図である。 図7は、立ち上がりモデルの一例を示す図である。 図8は、頭部移動経路の一例を示す図である。 図9は、前かがみ中間点の一例を示す図である。 図10は、座標変換の一例を示す図である。 図11は、頭部移動経路の予想線の一例を示す図である。 図12は、学習方法の一例を示す図である。 図13は、スキャニング方法の一例を示す図である。 図14は、立ち上がりラインの設定方法の一例を示す図である。 図15は、実施例1に係る設定処理の手順を示すフローチャートである。 図16は、実施例1に係る行動検出処理の手順を示すフローチャートである。 図17は、起床ラインの設定方法の一例を示す図である。 図18は、応用例に係る行動検出処理の手順を示すフローチャート(1)である。 図19は、応用例に係る行動検出処理の手順を示すフローチャート(2)である。 図20は、立ち上がり動作の一例を示す図である。 図21は、立ち上がりラインの設定方法の応用例を示す図である。 図22は、動作に関するパラメータの設定の応用例を示す図である。 図23は、立ち上がり中間点の一例を示す図である。 図24は、立ち上がり中間点の算出結果の一例を示す図である。 図25は、立ち上がりラインの設定方法の一例を示す図である。 図26は、実施例1及び実施例2に係る行動検出プログラムを実行するコンピュータのハードウェア構成例を示す図である。
以下に添付図面を参照して本願に係る行動検出方法及び行動検出装置について説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[行動検出システムの構成]
図1は、実施例1に係る行動検出システムに含まれる各装置の機能的構成を示すブロック図である。図1に示す行動検出システム1は、医療や介護などの施設に適用されるものであり、カメラ20が撮像する画像を通じて患者や要介護者などのベッドの使用者がベッドから離床する行動、例えば立ち上がりに関する動作を検出するサービスを提供する。
かかる行動検出サービスの一環として、行動検出システム1は、カメラ20が撮像する画像から検知される前かがみ(前屈)の姿勢から立ち上がる場合に予測される頭部の移動経路に合わせて離床を判定するラインを動的に設定して頭部が当該ラインを通過するか否かを判定する。
これによって、カメラ20が撮像する画像でベッドが映る領域に上記の離床の判定に用いるラインが設定された場合でも、ベッド上で行われる立ち上がり以外の動作、例えば寝返りや座位中の身動きが原因となって離床の誤検出が発生するのを抑制できる。この結果、離床検出に用いるカメラ20の設置位置の自由度を高めることができる。
以下では、画像上で頭部が通過することにより前かがみを判定するラインのことを「前かがみライン」と記載し、画像上で頭部が通過することにより離床、例えば立ち上がりを判定するラインのことを立ち上がりラインと記載する場合がある。
図1に示すように、行動検出システム1には、設定装置10と、カメラ20と、行動検出装置100とが含まれる。なお、図1には、1台のカメラ20を例示したが、行動検出システム1は、複数のカメラ20を収容することもできる。
これら設定装置10及び行動検出装置100、さらには、カメラ20及び行動検出装置100は、所定のネットワークを介して通信可能に接続される。かかるネットワークには、一例として、有線または無線を問わず、インターネット(Internet)を始め、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網を採用できる。
設定装置10は、行動検出装置100に対する各種設定を行う装置である。
一実施形態として、設定装置10は、施設の関係者により使用される情報処理装置として実装することができる。例えば、設定装置10には、デスクトップ型またはノート型のパーソナルコンピュータを採用することができる。この他、設定装置10には、スマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末、さらには、PDA(Personal Digital Assistants)などのスレート端末などを採用することもできる。さらに、設定装置10は、行動検出装置100のコンソールとして実装されることとしてもかまわない。
例えば、設定装置10は、行動検出装置100に対し、行動検出装置100が上記の前かがみの姿勢を検知する場合に用いる前かがみラインを設定する。また、設定装置10は、行動検出装置100に対し、行動検出装置100が上記の立ち上がりラインを設定する場合に用いる頭部移動経路の予想線、すなわち前かがみの姿勢からの立ち上がりまで頭部が生理的曲線にしたがって移動する場合に予想される移動経路を設定する。さらに、設定装置10は、行動検出装置100がカメラ20により撮像される画像からベッドの使用者の頭部を検知するのに用いる識別器を生成する。
なお、図1には、設定装置10が行動検出装置100に対する各種設定を行う場合を例示するが、行動検出装置100に前かがみライン、頭部移動経路の予想線や頭部検知用の識別器が設定されている場合、上記の行動検出サービスの実施に設定装置10を用いずともかまわない。また、必ずしも設定装置10及び行動検出装置100を別体として構築せずともよく、行動検出装置100に設定装置10の機能を併せ持たせることもできる。
カメラ20は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を搭載する撮像装置である。
一実施形態として、カメラ20には、R(red)、G(green)、B(blue)など3種以上の受光素子を搭載することができるが、必ずしも画像に色情報が含まれずともグレースケールであってもよい。また、画像の階調値は、RGB表色系のものに限定されず、他の表色系、例えばHSV(Hue Saturation Value)表色系やYUV表色系などで表現されることとしてもかまわない。
このカメラ20は、医療または介護の施設内に設けられた患者用のベッドの全部または一部を撮像範囲に収める位置に設置される。例えば、カメラ20は、ベッドの枕元から足下への方向に向けて、ベッドの上面(就床面)の側端を撮像できる高さに設置することができる。このようにカメラ20を設置する場合、必ずしもベッドの頭部側の上方、例えばヘッドボードの真上などの位置にカメラ20が設置されずともかまわない。例えば、ベッドの頭部側の上方からベッドの幅方向、図2を用いて後述するX軸方向へカメラ20を左右にずらして配置することもできる。なお、以下では、ベッドの枕元から足下への方向に向けてカメラ20を設置する場合を想定するが、ベッドの足下から枕元への方向に向けてカメラ20を設置することとしてもかまわない。
行動検出装置100は、上記の行動検出サービスを提供するコンピュータである。
一実施形態として、行動検出装置100は、パッケージソフトウェアやオンラインソフトウェアとして上記の行動検出サービスを実現する行動検出プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、行動検出装置100は、上記の行動検出サービスを提供するWebサーバとして実装することとしてもよいし、アウトソーシングによって上記の行動検出サービスを提供するクラウドとして実装することとしてもかまわない。
[座標系]
ここで、上記の前かがみライン及び上記の頭部移動経路の予想線は、カメラ20が撮像する画像上に設定される画像座標系のデータであるが、カメラ20が設置される環境の3次元空間で定義された座標が2次元の画像座標系へ投影されたものでもある。このような3次元空間の座標系には、一例として、地面座標系が定義されると共に、地面座標系の座標が画像座標系の座標へ投影される場合にカメラ20のカメラ座標系が用いられる。
このため、ここでは、図2〜図5を用いて、本実施例に係る地面座標系及びカメラ座標系について説明する。図2は、地面座標系の一例を示す図である。図3は、カメラ座標系の一例を示す図である。図4A〜図4Cは、地面座標系の矢視図の一例を示す図である。図5A〜図5Cは、カメラ座標系の直交平面の一例を示す図である。
図2に示すように、地面座標系は、ベッド3の就床面のうち頭側の辺の中央真下を3次元空間の原点とし、ベッド3の幅方向をX軸、ベッド3の奥行き方向をY軸、ベッド3の高さ方向をZ軸とする座標系である。図2に示す地面座標系で示されたA矢視の場合、図4Aに示すZX平面の投影図となり、B矢視の場合、図4Bに示すXY平面の投影図となり、C矢視の場合、図4Cに示すYZ平面の投影図となる。また、図3に示すように、カメラ座標系は、図1に示したカメラ20に関する座標系であり、カメラ20のレンズの焦点が3次元空間の原点とされる。図3に示すカメラ座標系の場合、ZX平面が図5Aに示す投影図となり、XY平面が図5Bに示す投影図となり、YZ平面が図5Cに示す投影図となる。
[設定装置10の構成]
続いて、本実施例に係る設定装置10の機能的構成について説明する。図1に示すように、設定装置10は、第1パラメータ取得部11と、モデル生成部12と、移動経路算出部13と、前かがみライン算出部14と、第2パラメータ取得部15と、座標変換部16と、設定部17と、学習部18とを有する。
第1パラメータ取得部11は、第1のパラメータを取得する処理部である。
ここで言う「第1のパラメータ」とは、ベッド3やその使用者に関するパラメータを指す。詳細は図7を用いて後述するが、項目の例を挙げれば、一例として、図6に示す項目が含まれる。図6は、第1のパラメータの一例を示す図である。図6には、一例として、ベッド3の使用者が病院等の施設に入院する患者である場合における第1のパラメータが示されている。図6に示すように、ベッド3に関するパラメータには、ベッド3の高さB1及びベッド3の幅の半分B2などの項目が含まれる。一方、患者に関するパラメータは、体格に関するパラメータと、動作に関するパラメータとに分けることもできる。このうち、体格に関するパラメータには、患者の頭高H1、頭長H2、大腿長さH3、ベッド3の幅方向の側端から端座位時における足の設置面までの距離H4、座高H5や身長H6などが含まれる。また、動作に関するパラメータには、立ち上がりの予備動作として患者が前かがみの姿勢になる場合に患者の体幹が前傾する角度H7や端座位から立ち上がりへの姿勢の変化で患者の足の設置面がベッド3の幅方向へ前進する前進量H8などが含まれる。なお、「端座位」とは、患者がベッド3の左または右の側端からベッドの幅方向へ向けて足を下ろして腰掛ける姿勢のことを指す。
一実施形態として、第1パラメータ取得部11は、図示しない入力デバイスを介する入力操作により、上記の第1のパラメータを取得することができる。この他、第1パラメータ取得部11は、ハードディスクや光ディスクなどの補助記憶装置またはメモリカードやUSB(Universal Serial Bus)メモリなどのリムーバブルメディアから上記の第1のパラメータを取得することもできる。さらに、第1パラメータ取得部11は、外部装置からネットワークを介して受信することによって上記の第1のパラメータを取得することもできる。
モデル生成部12は、上記の第1のパラメータを用いて患者の立ち上がりモデルを生成する処理部である。ここで言う「立ち上がりモデル」とは、患者がベッド3から立ち上がる動作が模式化されたモデルを指す。
一実施形態として、モデル生成部12は、患者の姿勢がベッド3の側端に背を向けた状態で端座位、端座の状態でとられる前かがみ、ベッド3の傍での立位の順に変化する条件設定の下、地面座標系における患者のモデルを仮想的に再現する。図7は、立ち上がりモデルの一例を示す図である。図7の上段には、端座位における患者のモデルが示されており、図7の中段には、前かがみの患者のモデルが示されており、また、図7の下段には、立位の患者のモデルが示されている。図7に示すように、モデル生成部12は、第1パラメータ取得部11により取得された第1のパラメータにしたがって患者の立ち上がりモデルをXZ平面上で再現することができる。言い換えれば、モデル生成部12は、ベッド3が存在するY座標上であれば任意のY座標に患者のモデルを設定できる。なお、図7には、図2に示したA矢視で患者がベッド3の右側端に端座する場合を示したが、ベッド3の左側端に端座する場合にも同様の立ち上がりモデルを再現できる。
移動経路算出部13は、上記の立ち上がりモデルの頭部移動経路を算出する処理部である。
一実施形態として、移動経路算出部13は、モデル生成部12により生成される立ち上がりモデルに含まれる姿勢ごとに当該姿勢における頭部の位置を算出する。図8は、頭部移動経路の一例を示す図である。図8には、図7に示した立ち上がりモデルが上から端座位、前かがみ、立位の順に示されている。図8に示すように、移動経路算出部13は、端座位、前かがみ及び立位の3つの姿勢ごとに当該姿勢における頭部の位置、例えば頭部を円形と仮定する場合にはその中心が地面座標系でとる座標(X端座位,Y端座位,Z端座位)を算出する。
例えば、端座位における頭部の位置は、図8に縦線の塗りつぶしで示された矩形の位置となる。このうち、X端座位は、第1のパラメータのうちベッド3の幅の半分B2、頭長H2、大腿長さH3及び距離H4を用いることにより求めることができる。すなわち、移動経路算出部13は、「B2+H4−H3+H2÷2」の計算により、端座位の頭部の位置X端座位を算出する。また、Z端座位は、第1のパラメータのうちベッド3の高さB1、頭高H1及び座高H5を用いることにより求めることができる。すなわち、移動経路算出部13は、「B1+H5−H1÷2」の計算により、端座位の頭部の位置Z端座位を算出する。なお、端座位の頭部の位置Y端座位には、Z軸方向への投射によりベッド3の就床面に投影できるY座標であれば任意のY座標を採用できる。
また、前かがみにおける頭部の位置は、図8に白色の塗りつぶしで示された矩形の位置となる。このうち、X前かがみは、患者の体幹を回転させる中心Qの座標が点Qの座標(X,Y,Z)が(X端座位,任意の座標,B1)であるとしたとき、X端座位をZX平面上で点Qを中心に体幹前傾角度H7にわたって回転させることにより求めることができる。同様に、Z前かがみも、Z端座位をZX平面上で点Qを中心に体幹前傾角度H7にわたって回転させることにより求めることができる。
さらに、立位における頭部の位置は、図8に横線の塗りつぶしで示された矩形の位置となる。このうち、Xベッド傍での立位は、第1のパラメータのうちベッド3の幅の半分B2、距離H4及び前進量H8を用いることにより求めることができる。すなわち、移動経路算出部13は、「B2+H4+H8」の計算により、端座位の頭部の位置Xベッド傍での立位を算出する。また、Zベッド傍での立位は、第1のパラメータのうち頭高H1及び身長H6を用いることにより求めることができる。すなわち、移動経路算出部13は、「H6−H1÷2」の計算により、端座位の頭部の位置Zベッド傍での立位を算出する。
これら端座位、前かがみ及び立位の3つの姿勢における頭部の位置を算出することにより、端座位の頭部の位置を始点、前かがみの頭部の位置を中継点、立位の頭部の位置を終点とする移動経路が頭部移動経路として得ることができる。かかる頭部移動経路は、患者がベッド3の左側端で端座位の姿勢をとる場合とベッド3の右側端で端座位の姿勢をとる場合とに分けて算出されると共に、地面座標系の3次元空間上でベッド3が存在するY座標がベッド3の奥行き方向に向かって所定の間隔、例えば10cmで区切られたピッチごとに算出される。
前かがみライン算出部14は、上記の前かがみラインを算出する処理部である。
一実施形態として、前かがみライン算出部14は、上記の立ち上がりモデルで患者の頭部が端座位から前かがみへ移行する移動経路のうち任意の中間点における頭部の位置を求める。ここでは、一例として、患者の頭部が端座位から前かがみへ移行する移動経路の中点における頭部の位置を求める場合を例示する。以下では、患者の頭部が端座位から前かがみへ移行する移動経路の中でもその中点のことを「前かがみ中間点」と記載する場合がある。図9は、前かがみ中間点の一例を示す図である。図9には、端座位における患者のモデルが破線で示されると共に前かがみにおける患者のモデルが実線で示されている。図9に示すように、前かがみ中間点における頭部の位置は、図中の白色の塗りつぶしで示された矩形の位置となる。このうち、X前かがみ中間点は、患者の体幹を回転させる中心Qの座標が点Qの座標(X,Y,Z)が(X端座位,任意の座標,B1)であるとしたとき、X端座位をZX平面上で点Qを中心に体幹前傾角度H7の2分の1にわたって回転させることにより求めることができる。同様に、Z前かがみ中間点も、Z端座位をZX平面上で点Qを中心に体幹前傾角度H7の2分の1にわたって回転させることにより求めることができる。
このようにして、前かがみライン算出部14は、患者がベッド3の左側端で端座位の姿勢をとる場合とベッド3の右側端で端座位の姿勢をとる場合とに分けて上記の前かがみ中間点を算出すると共に、地面座標系の3次元空間上でベッド3が存在するY座標がベッド3の奥行き方向に向かって所定の間隔、例えば10cmで区切られたピッチごとに上記の前かがみ中間点を算出する。
その上で、前かがみライン算出部14は、前かがみ中間点のうちベッド3の奥行き方向に向かって隣接する前かがみ中間点を互いに結ぶことにより、左右の端座位ごとに前かがみラインを算出する。
第2パラメータ取得部15は、第2のパラメータを取得する処理部である。ここで言う「第2のパラメータ」は、上記の第1のパラメータと異なり、カメラ20に関するパラメータを指し、例えば、地面座標系の3次元空間でカメラ20が設置される座標を始め、カメラ20の回転角、すなわちパン、チルト及びロールなどの角度などの他、カメラ20の解像度やレンズの歪みなどが挙げられる。
一実施形態として、第2パラメータ取得部15は、図示しない入力デバイスを介する入力操作により、上記の第2のパラメータを取得することができる。この他、第2パラメータ取得部15は、ハードディスクや光ディスクなどの補助記憶装置またはメモリカードやUSBメモリなどのリムーバブルメディアから上記の第2のパラメータを取得することもできる。さらに、第2パラメータ取得部15は、外部装置からネットワークを介して受信することによって上記の第2のパラメータを取得することもできる。
座標変換部16は、座標変換を行う処理部である。
一実施形態として、座標変換部16は、第2パラメータ取得部15により取得された第2のパラメータに含まれる地面座標系におけるカメラ20の設置位置及び回転角にしたがって移動経路算出部13により算出された頭部移動経路の座標及び前かがみライン算出部14により算出された前かがみラインの座標を地面座標系からカメラ座標系へ変換する。その上で、座標変換部16は、回転角及びカメラ座標系へ変換された頭部移動経路及び前かがみラインの座標を第2のパラメータに含まれるカメラ20の画素数やレンズの歪みに合わせて2次元の画像座標系へ投影することにより、頭部移動経路及び前かがみラインの座標をカメラ座標系から画像座標系へ変換する。なお、ここでは、地面座標系から画像座標系への座標変換をカメラ座標系を介して行う場合を例示したが、カメラ座標系を介さずに地面座標系から画像座標系へ座標変換を行うこととしてもかまわない。
図10は、座標変換の一例を示す図である。図10の上段には、地面座標系のXY平面上に前かがみ中間点がプロットされると共に左右の端座位ごとに地面座標系のXY平面上で前かがみ中間点が接続された前かがみライン20L及び20Rが示されている。これら前かがみライン20L及び20Rは、図10の下段に示す通り、地面座標系から画像座標系へ変換される。図10の下段には、ベッド3の頭側の斜め左方向からベッド3がカメラ20により撮影される場合が示されており、前かがみライン20L及び20Rのうち前かがみライン20Lが図示されているが、前かがみライン20Rも同様に画像座標系へ変換される。図10の下段に示すように、前かがみライン20L及び20Rは、3次元の地面座標系から画像の左上の頂点を原点とする2次元の画像座標系へ変換される。
設定部17は、行動検出装置100に対する各種の設定を行う処理部である。
一実施形態として、設定部17は、座標変換部16により画像座標系へ変換された前かがみライン20L及び20Rを参照データとして行動検出装置100の第1通過判定部120が参照する内部メモリのワークエリアへ設定する。さらに、設定部17は、画像座標系で前かがみライン20L及び20Rと頭部移動経路との間で交点を求める。そして、設定部17は、前かがみライン20L及び20Rと頭部移動経路とが交わる交点ごとに、頭部移動経路のうち交点を通過してから立位に至るまでの部分移動経路を頭部移動経路の予想線として抽出する。その上で、設定部17は、交点ごとの頭部移動経路の予想線を行動検出装置100の立ち上がりライン設定部130が参照する内部メモリのワークエリアへ設定する。図11は、頭部移動経路の予想線の一例を示す図である。図11には、前かがみライン20L及び20Rのうち図10の下段に示した前かがみライン20Lが抜粋して図示されている。図11に示すように、前かがみライン20Lと頭部移動経路とが交わる交点の座標ごとにその頭部移動経路の予想線、すなわち図中の一点鎖線とが対応付けられたデータが立ち上がりライン設定部130へ設定される。
学習部18は、機械学習を行う処理部である。
一実施形態として、学習部18は、HOG・RealAdaBoostによる学習データを用いて、機械学習を行う。図12は、学習方法の一例を示す図である。図12に示すように、学習部18は、人の頭部のポジティブデータと、布団、ベッド、頭部以外の身体などのネガティブデータとを学習サンプルとし、各学習サンプルのHOG特徴量をRealAdaBoostのアルゴリズムにしたがって学習することによってRealAdaBoostの分類器を頭部検知用の識別器として生成する。このようにして生成された頭部検知用の識別器が行動検出装置100の頭部検知部110が用いる判定モデルとして設定される。
なお、上記の第1パラメータ取得部11、モデル生成部12、移動経路算出部13、前かがみライン算出部14、第2パラメータ取得部15、座標変換部16、設定部17及び学習部18などの処理部は、次のようにして実装できる。例えば、中央処理装置、いわゆるCPU(Central Processing Unit)などに、上記の各処理部と同様の機能を発揮するプロセスをメモリ上に展開して実行させることにより実現できる。これらの機能部は、必ずしも中央処理装置で実行されずともよく、MPU(Micro Processing Unit)に実行させることとしてもよい。また、上記の各機能部は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
また、上記の各処理部が用いる主記憶装置には、一例として、各種の半導体メモリ素子、例えばRAM(Random Access Memory)やフラッシュメモリを採用できる。また、上記の各処理部が参照する記憶装置は、必ずしも主記憶装置でなくともよく、補助記憶装置であってもかまわない。この場合、HDD(Hard Disk Drive)、光ディスクやSSD(Solid State Drive)などを採用できる。
[行動検出装置100の構成]
次に、本実施例に係る行動検出装置100の機能的構成について説明する。図1に示すように、行動検出装置100は、頭部検知部110と、第1通過判定部120と、立ち上がりライン設定部130と、第2通過判定部140と、通知部150とを有する。
頭部検知部110は、画像から頭部を検知する処理部である。
一実施形態として、頭部検知部110は、カメラ20により画像が撮像される度に処理を起動する。図13は、スキャニング方法の一例を示す図である。図13に示すように、カメラ20により撮像された画像をラスタスキャンすることによって、頭部検知部110は、学習部18により生成された頭部検知用の識別器を用いて、頭部の位置、例えば重心位置を検知する。
第1通過判定部120は、頭部が前かがみラインを通過するか否かを判定する処理部である。
一実施形態として、第1通過判定部120は、カメラ20により画像が撮像されたフレームと、そのフレームよりも以前に撮像されたフレーム、例えば1つ前のフレームとの間で頭部検知部110により検知された頭部の位置が結ぶ軌跡が設定部17により設定された前かがみライン20Lまたは20Rのいずれかを通過するか否かを判定する。このように、前かがみライン20L及び20Rの通過を判定することにより、立ち上がりの予備動作としての前かがみ、寝返り、及び、座位中の身動き、例えば地面に載置された物を拾う動作のうちいずれかの動作が行われていると判断できる。一方で、前かがみライン20Lまたは20Rの第1通過の段階では、立ち上がりの予備動作またはそれ以外の動作であるのかは弁別されておらず、かかる弁別は、第2通過判定部140に委ねられる。
立ち上がりライン設定部130は、画像上に立ち上がりラインを設定する処理部である。
一実施形態として、立ち上がりライン設定部130は、第1通過判定部120により患者の頭部の前かがみライン20Lまたは20Rの通過が判定された場合、頭部検知部110により検知された頭部の位置の軌跡が前かがみライン20を通過する通過点の座標を求める。続いて、立ち上がりライン設定部130は、内部メモリに記憶された頭部移動経路の予測線のうち先に座標が求められた通過点との距離が最短である交点Pに対応付けられた予想線を取得する。
図14は、立ち上がりラインの設定方法の一例を示す図である。図14に示す符号200は、カメラ20により撮像された画像を指す。図14の上段には、通過点に対応する交点Pに対応する頭部移動経路が図示されている。すなわち、図14の上段には、端座位における頭部の位置が縦線の塗りつぶしの矩形で示されると共にベッド3の傍で立位になった場合における頭部の予測位置が横線の塗りつぶしの矩形で示されている。さらに、図14の上段には、患者の頭部が交点Pに至るまでに移動した経路が一点鎖線で示されると共に、交点Pを通過してから立位に至るまでに患者の頭部が移動すると予測される経路、すなわち頭部移動経路の予測線が二点鎖線で示されている。
図14の上段に示す頭部移動経路の予測線が取得された場合、立ち上がりライン設定部130は、頭部移動経路の予測線のうち前かがみの頭部の位置、すなわち最下点及び立位の頭部の位置、すなわちベッド3の傍での立位になった頭部の位置を結ぶ区間の線分に対する法線方向に上記の立ち上がりライン30、図14に示す実線の太線を設定する。かかる立ち上がりライン30は、上記の線分上であれば任意の位置に設定することができるが、図14の上段に示された例では、上記の線分における中点の位置に立ち上がりライン30が設定されている。このように設定される立ち上がりライン30は、それ以降に行われる行動が立ち上がり動作であるのか、あるいはそれ以外の動作であるのかを弁別することを可能にする。
図14の下段には、前かがみの姿勢の後に立ち上がらない場合、例えば地面にある物を拾う場合の頭部移動経路の実例が一点鎖線で示されると共に、前かがみの姿勢の後に立ち上がる場合の頭部移動経路の実例が二点鎖線で示されている。図14の下段に示す通り、前かがみの姿勢の後に立ち上がる場合には、図14の下段に二点鎖線で示すように、前かがみの姿勢の前後で患者の頭部が「く」の字、言い換えれば傾いたL字状の経路をとるのに対し、前かがみの姿勢の後に立ち上がらない場合には、前かがみの姿勢の後に患者の前かがみ前の頭部の位置の周辺に戻る可能性が高いことがわかる。そして、上記の立ち上がりライン30によれば、前かがみの姿勢の後に患者の頭部が「く」の字状の経路で移動する場合に絞って通過する位置に立ち上がりライン30を設定できる。
このように立ち上がりライン30が設定された場合、立ち上がりライン設定部130は、前かがみラインの一部、すなわち頭部移動経路の予測線が通過する部分を基準にする所定の範囲を削除する。これは、立ち上がりライン30の通過または2回目の前かがみライン20の通過のいずれか一方のイベントを択一的に発生させるためである。言い換えれば、2回目に前かがみライン20の通過が判定された場合に、立ち上がり以外の動作が行われたと弁別し、立ち上がりライン30を解除するためである。
第2通過判定部140は、頭部が立ち上がりラインまたは前かがみラインのいずれのラインを通過するのかを判定する処理部である。
一実施形態として、第2通過判定部140は、立ち上がりライン設定部130により立ち上がりライン30が設定された後に立ち上がりライン30が解除されるまで、頭部検知部110により画像から頭部の位置が検知される度に実行される。すなわち、第2通過判定部140は、カメラ20により画像が撮像されたフレームとその1つ前のフレームとの間で頭部検知部110により検知された頭部の位置を結ぶ軌跡が立ち上がりライン30を通過するか否かを判定する。
ここで、立ち上がりライン30を通過する場合には、患者が前かがみを予備動作として立ち上がる公算が高い。この場合、通知部150により関係者への通知が実行される。一方、立ち上がりライン30を通過しない場合、第2通過判定部140は、画像のフレーム間で頭部の位置が結ぶ軌跡が前かがみライン20を通過するか否かを判定する。このとき、前かがみラインを通過する場合には、患者が立ち上がり以外の目的で前かがみの姿勢になった公算が高い。この場合、通知部150により関係者への通知は実行されない。その後、立ち上がりライン設定部130により立ち上がりライン30が解除されると共に、前かがみラインの一部の削除が解除される。
通知部150は、各種の通知を実行する処理部である。
一実施形態として、通知部150は、第2通過判定部140により立ち上がりライン30の通過が判定された場合、行動検出装置100が有する図示しない表示デバイスや音声出力デバイスを始め、任意の出力先へ通知を出力することができる。例えば、ベッド3の使用者の関係者、例えば患者の家族、看護師、医者や要介護者の介護を担当する介護士などが使用する端末装置を出力先とすることもできる。また、施設の管理室やナースステーションなどのスピーカ等から離床を報知する報知音、例えば電子音、メッセージなどを出力させることもできる。
なお、上記の頭部検知部110、第1通過判定部120、立ち上がりライン設定部130、第2通過判定部140及び通知部150などの処理部は、次のようにして実装できる。例えば、中央処理装置、いわゆるCPUなどに、上記の各処理部と同様の機能を発揮するプロセスをメモリ上に展開して実行させることにより実現できる。これらの機能部は、必ずしも中央処理装置で実行されずともよく、MPUに実行させることとしてもよい。また、上記の各機能部は、ASICやFPGAなどのハードワイヤードロジックによっても実現できる。
また、上記の各処理部が用いる主記憶装置には、一例として、各種の半導体メモリ素子、例えばRAMやフラッシュメモリを採用できる。また、上記の各処理部が参照する記憶装置は、必ずしも主記憶装置でなくともよく、補助記憶装置であってもかまわない。この場合、HDD、光ディスクやSSDなどを採用できる。
[処理の流れ]
次に、本実施例に係る行動検出システムの処理の流れについて説明する。なお、ここでは、設定装置10により実行される(1)設定処理を説明した後に、行動検出装置100により実行される(2)行動検出処理を説明することとする。
(1)設定処理
図15は、実施例1に係る設定処理の手順を示すフローチャートである。この処理は、設定の開始指示が受け付けられた場合や第1のパラメータまたは第2のパラメータが取得された場合に起動される。
図15に示すように、第1パラメータ取得部11により第1のパラメータが取得されると共に第2パラメータ取得部15により第2のパラメータが取得されると(ステップS101及びステップS102)、モデル生成部12は、上記の第1のパラメータから患者の立ち上がりモデルを生成する(ステップS103)。
続いて、移動経路算出部13は、ステップS103で取得された立ち上がりモデルを用いて、地面座標系の3次元空間上でベッド3が存在するY座標がベッド3の奥行き方向に向かって所定の間隔、例えば10cmで区切られたピッチごとに頭部移動経路を算出する(ステップS104)。また、前かがみライン算出部14は、ステップS103で取得された立ち上がりモデルを用いて、前かがみラインを算出する(ステップS105)。
その後、座標変換部16は、ステップS104で算出された頭部移動経路及びステップS105で算出された前かがみラインの座標をカメラ座標系から画像座標系へ変換する(ステップS106)。
続いて、設定部17は、前かがみライン20L及び20Rと頭部移動経路とが交わる交点ごとに、頭部移動経路のうち交点を通過してから立位に至るまでの部分移動経路を頭部移動経路の予想線として抽出する(ステップS107)。
その上で、設定部17は、ステップS106で画像座標系へ変換された前かがみライン20L及び20Rを参照データとして行動検出装置100に設定すると共に、ステップS107で交点ごとに抽出された頭部移動経路の予想線を行動検出装置100に設定する(ステップS108)。
また、学習部18は、人の頭部のポジティブデータと、布団、ベッド、頭部以外の身体などのネガティブデータとを学習サンプルとし、各学習サンプルのHOG特徴量をRealAdaBoostのアルゴリズムにしたがって機械学習を行う(ステップS109)。
その後、学習部18は、ステップS109の機械学習で得られたRealAdaBoostの分類器を頭部検知用の識別器として行動検出装置100に設定し(ステップS110)、処理を終了する。
(2)行動検出処理
図16は、実施例1に係る行動検出処理の手順を示すフローチャートである。この処理は、カメラ20から画像の出力がある限り、繰り返し実行される処理である。図16に示すように、カメラ20から画像が取得されると(ステップS201)、頭部検知部110は、学習部18により生成された頭部検知用の識別器を用いて、ステップS201で取得された画像をラスタスキャンすることによって頭部の位置を検知する(ステップS202)。
続いて、第1通過判定部120は、ステップS201で取得されたフレームと、その1つ前のフレームとの間で頭部の位置が結ぶ軌跡が前かがみライン20Lまたは20Rのいずれかを通過するか否かを判定する(ステップS203)。
このとき、第1通過判定部120により患者の頭部の前かがみライン20Lまたは20Rの通過が判定された場合(ステップS203Yes)、立ち上がりライン設定部130は、頭部検知部110により検知された頭部の位置の軌跡が前かがみライン20を通過する通過点の座標を求める(ステップS204)。
続いて、立ち上がりライン設定部130は、内部メモリに記憶された頭部移動経路の予測線のうちステップS204で求められた通過点との距離が最短である交点Pに対応付けられた予想線を取得する(ステップS205)。
その上で、立ち上がりライン設定部130は、頭部移動経路の予測線のうち前かがみの最下点及び立位の頭部の位置を結ぶ区間の線分に対する法線方向に立ち上がりラインを設定すると共に、前かがみラインの一部、すなわち頭部移動経路の予測線が通過する部分を基準とする所定の範囲を削除する(ステップS206及びステップS207)。
その後、第2通過判定部140は、次のフレームの画像が取得されるのを待機し(ステップS208)、頭部検知部110は、ステップS208で取得されるフレームの画像から頭部の位置を検知する(ステップS209)。
続いて、第2通過判定部140は、ステップS208で取得されるフレームとその1つ前のフレームとの間で頭部の位置を結ぶ軌跡が立ち上がりライン30を通過するか否かを判定する(ステップS210)。
ここで、立ち上がりライン30を通過する場合(ステップS210Yes)には、患者が前かがみを予備動作として立ち上がる公算が高い。この場合、通知部150により関係者への通知が実行される。一方、立ち上がりライン30を通過しない場合(ステップS210No)、第2通過判定部140は、画像のフレーム間で頭部の位置が結ぶ軌跡が前かがみライン20を通過するか否かをさらに判定する(ステップS211)。このとき、前かがみラインを通過する場合(ステップS211Yes)には、患者が立ち上がり以外の目的で前かがみの姿勢になった公算が高い。この場合、通知部150により関係者への通知は実行されない。なお、ステップS210NoかつステップS211Noである場合、ステップS208に戻り、以降の処理を繰り返し実行する。
上記のステップS210YesまたはステップS211Yesの場合、立ち上がりライン設定部130は、ステップS206で設定された立ち上がりライン30を解除すると共に前かがみラインの一部の削除を解除し(ステップS212及びステップS213)、ステップS201の処理へ戻る。
[効果の一側面]
上述してきたように、本実施例に係る行動検出システム1は、カメラ20が撮像する画像から検知される前かがみの姿勢から立ち上がる場合に予測される頭部の移動経路に合わせて離床を判定するラインを動的に設定して頭部が当該ラインを通過するか否かを判定する。これによって、カメラ20が撮像する画像でベッドが映る領域に上記の離床の判定に用いるラインが設定された場合でも、ベッド上で行われる立ち上がり以外の動作、例えば寝返りや座位中の身動きが原因となって離床の誤検出が発生するのを抑制できる。したがって、本実施例に係る行動検出システム1によれば、離床検出に用いるカメラ20の設置位置の自由度を高めることができる。
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
[起床ラインの設定]
上記の実施例1では、前かがみラインが常に画像上で有効化されたまま行動検出処理が実行される場合を例示したが、必ずしも常に前かがみラインをON状態に設定せずともかまわない。そこで、ここでは、ベッド3上で患者が臥位または座位のいずれであるのかを判定する起床ラインを設定し、頭部が起床ライン内にある場合に前かがみラインを無効化する場合について説明する。
図17は、起床ラインの設定方法の一例を示す図である。図17の上段には、地面座標系でベッド3の就床面が含む4つの頂点P1〜P4が示されている。まず、設定装置10は、図17の中段に示す通り、これら4つの頂点P1〜P4の3次元座標を画像座標系の2次元座標へ変換する。続いて、設定装置10は、図17の下段に示す通り、頂点P1及び頂点P2の中点P5を抽出すると共に、頂点3及び頂点P4の中点P6を抽出する。その上で、設定装置10は、頂点P1、中点P5、中点P6及び頂点P4の4つの点により形成される領域を起床ライン40として行動検出装置100に設定する。
図18及び図19は、応用例に係る行動検出処理の手順を示すフローチャートである。図18に示すように、行動検出装置100は、行動検出処理が起動されると、前かがみライン20、立ち上がりライン30及び起床ライン40をOFF状態に設定することにより、全ラインを初期化する(ステップS301)。
続いて、行動検出装置100は、カメラ20から画像が取得されると(ステップS302)、学習部18により生成された頭部検知用の識別器を用いて、ステップS302で取得された画像をラスタスキャンすることによって頭部の位置を検知する(ステップS303)。
そして、行動検出装置100は、ステップS303で検知された頭部の位置が起床ライン40の内部であるか否かを判定する(ステップS304)。このとき、頭部の位置が起床ライン40の内部である場合(ステップS304Yes)には、患者が臥位の姿勢にある公算が高いので、必ずしも前かがみライン20を設定せずともよいことがわかる。なぜなら、臥位から前かがみへ姿勢を変化させるのは、人間の生理的曲線から外れる不自然な行動であるからである。この場合、行動検出装置100は、起床ライン40をON状態に設定すると共に前かがみライン20をOFF状態に設定する(ステップS305及びステップS306)。これにより、臥位から座位へ姿勢を変化させる起床の動作が監視されることになる。なお、頭部の位置が起床ライン40の外部である場合(ステップS304No)には、後述のステップS310へ移行する。
続いて、行動検出装置100は、次のフレームの画像が取得されるのを待機し(ステップS307)、ステップS307で取得されるフレームの画像から頭部の位置を検知する(ステップS308)。そして、ステップS307で取得されるフレームの画像から頭部の位置が起床ライン40を通過するまで(ステップS309No)、上記のステップS307及びステップS308の処理を繰り返し実行する。
一方、ステップS307で取得されるフレームの画像から頭部の位置が起床ライン40を通過する場合(ステップS309Yes)、患者が臥位から起床し、座位の姿勢になった公算が高いと推定できる。この場合、行動検出装置100は、起床ライン40をOFF状態に設定すると共に前かがみライン20をON状態に設定する(ステップS310及びステップS311)。
その後、行動検出装置100は、次のフレームの画像が取得されるのを待機し(ステップS312)、ステップS307で取得されるフレームの画像から頭部の位置を検知する(ステップS313)。
続いて、行動検出装置100は、ステップS312で取得されたフレームと、その1つ前のフレームとの間で頭部の位置が結ぶ軌跡が前かがみライン20Lまたは20Rのいずれかを通過するか否かを判定する(ステップS314)。
このとき、患者の頭部が前かがみライン20Lまたは20Rを通過する場合(ステップS314Yes)、行動検出装置100は、頭部の位置の軌跡と、通過が検知された方の前かがみライン20との通過点を求める(ステップS315)。
続いて、行動検出装置100は、内部メモリに記憶された頭部移動経路の予測線のうちステップS315で求められた通過点との距離が最短である交点Pに対応付けられた予想線を取得する(ステップS316)。
その上で、行動検出装置100は、頭部移動経路の予測線のうち前かがみの最下点及び立位の頭部の位置を結ぶ区間の線分に対する法線方向に立ち上がりライン30の位置を設定して立ち上がりライン30をON状態へ設定すると共に、前かがみライン20の一部、すなわち頭部移動経路の予測線が通過する部分を基準とする所定の範囲を削除する(ステップS317及びステップS318)。
その後、行動検出装置100は、次のフレームの画像が取得されるのを待機し(ステップS319)、ステップS319で取得されるフレームの画像から頭部の位置を検知する(ステップS320)。
続いて、行動検出装置100は、ステップS319で取得されるフレームとその1つ前のフレームとの間で頭部の位置を結ぶ軌跡が立ち上がりライン30を通過するか否かを判定する(ステップS321)。
ここで、立ち上がりライン30を通過する場合(ステップS321Yes)には、患者が前かがみを予備動作として立ち上がる公算が高い。この場合、通知部150により関係者への通知が実行される。一方、立ち上がりライン30を通過しない場合(ステップS321No)、行動検出装置100は、画像のフレーム間で頭部の位置が結ぶ軌跡が前かがみライン20を通過するか否かをさらに判定する(ステップS322)。このとき、前かがみラインを通過する場合(ステップS322Yes)には、患者が立ち上がり以外の目的で前かがみの姿勢になった公算が高い。この場合、通知部150により関係者への通知は実行されない。なお、ステップS321NoかつステップS322Noである場合、ステップS319に戻り、以降の処理を繰り返し実行する。
上記のステップS321YesまたはステップS322Yesの場合、行動検出装置100は、ステップS317でON状態へ設定された立ち上がりライン30をOFF状態へ設定すると共に前かがみライン20の一部の削除を解除し、前かがみライン20の全体をON状態へ設定する(ステップS323及びステップS324)。
その後、行動検出装置100は、次のフレームの画像が取得されるのを待機し(ステップS325)、ステップS325で取得されるフレームの画像から頭部の位置を検知する(ステップS326)。
このとき、頭部の位置が起床ライン40の内部にある場合(ステップS327Yes)には、行動検出装置100は、ステップS305へ移行して処理を継続する一方で、頭部の位置が起床ライン40の内部にない場合(ステップS327No)には、ステップS312へ移行して処理を継続する。
以上のような起床ライン40の設定により、患者がベッド3で就床中である場合に前かがみライン20を解除できる。それ故、寝返り等が原因となって画像上で患者の頭部が前かがみライン20を通過するケースを抑制できる。よって、離床検出の精度向上を期待できる。また、患者がベッド3で座位の姿勢をとる場合、立ち上がりが検出された後、ベッド3が配置された部屋から不在する場合、さらには、患者がベッド3の傍に立っている場合などには、前かがみライン20をON状態に設定できる。このため、離床の検出漏れが生じるのも抑制できる。
[個人差の吸収]
上記の実施例1では、立ち上がりライン30を頭部移動経路の予測線の法線方向へ設定する場合を例示したが、他の向きへ向けて立ち上がりライン30を設定することもできる。
すなわち、立ち上がりライン30の算出には、患者の体格や動作のパラメータを用いるので、個人差の影響を受ける。この際、立ち上がりの動作速度の違いは、立ち上がりライン30の通過を判定するのには影響しないので無視できる。また、体格の違いは、初期設定時に入力することで対応することができる。これらに比べて、患者間の動作の個人差は、事前に対応するのが困難である場合がある。
そのため、患者の動作が立ち上がりモデルの構築時に用いられる想定パラメータと異なることが原因となって頭部の位置が立ち上がりライン30からずれて立ち上がり動作が行われる場合も考えられ得る。例えば、図6に示した第1のパラメータのうち患者の動作に関するパラメータH7及びH8が(H7,H8)=(40deg,200mm)と設定されているのに対し、実際の動作時に計測されるH7及びH8が(H7,H8)=(20deg,100mm)であった場合、立ち上がりライン30を通過せずに患者が立ち上がるケースが発生しうる。あるいは、ベッド3に対してベッド3の幅方向よりも斜めに立ち上がる場合も同様の状況が発生しえる。図20は、立ち上がり動作の一例を示す図である。図20に示すように、患者は、必ずしも端座位からベッド3の幅方向、本例では真左の方向へ向けて前かがみや立ち上がりの動作を行うとは限らず、真左の方向から角度θの分ずれた方向に向けて前かがみや立ち上がりの動作を行う状況も発生しうる。このような状況へ対処するために、立ち上がりライン30の長さを大きく設定することができる他、次のようにして立ち上がりライン30を算出することにより対応することも可能である。
図21は、立ち上がりラインの設定方法の応用例を示す図である。図22は、動作に関するパラメータの設定の応用例を示す図である。図21に二点鎖線で示す頭部移動経路1は、画像座標系上で移動経路が最も右に寄るように、すなわち地面座標系で言い換えればベッド3の奥行き方向で奥の方向へずれるように、図22に示す動作のパラメータH7、H8及びθの最小及び最大が設定された経路である。さらに、図21に一点鎖線で示す頭部移動経路2は、画像座標系上で移動経路が最も左に寄るように、すなわち地面座標系で言い換えればベッド3の奥行き方向で手前の方向へずれるように、図22に示す動作のパラメータH7、H8及びθの最小及び最大が設定された経路である。なお、図21に実線で示す頭部移動経路3は、頭部移動経路1及び頭部移動経路2のパラメータの平均で算出される経路であり、図14に示した頭部移動経路と同一のものである。このように、頭部移動経路1及び頭部移動経路2において前かがみの姿勢で最下点となる頭部の位置とベッド3の傍で立位の姿勢が取られた場合の頭部の位置の中点を結ぶ線分を立ち上がりライン35に設定することで、個人による動作の違いが生じても、立ち上がり動作時に立ち上がりライン35を通過するので、離床の検出漏れを抑制できる。かかる立ち上がりライン35は、図15に示したステップS107で交点に対応する頭部移動経路の予想線が抽出された場合に、当該頭部移動経路(デフォルトの経路)と前かがみライン20との交点に上記の頭部移動経路1及び頭部移動経路2とを対応付けておき、図16に示したステップS205及びステップS206で用いることとすればよい。
[立ち上がりラインの固定設定]
上記の実施例1では、画像上で頭部が前かがみラインを通過することを条件に立ち上がりライン30を動的に設定する場合を例示したが、必ずしも動的な設定を行わずともかまわない。例えば、行動検出装置100に立ち上がりラインを固定的に設定しておき、頭部が立ち上がりラインを通過する場合に、過去の所定数のフレーム以内に頭部が前かがみラインを通過するか否かにより離床を検出することもできる。
例えば、行動検出装置100は、上記の立ち上がりモデルで患者の頭部が前かがみの最下点から立位へ移行する移動経路のうち任意の中間点における頭部の位置を求める。ここでは、一例として、患者の頭部が前かがみの最下点から立位へ移行する移動経路の中点における頭部の位置を求める場合を例示する。以下では、患者の頭部が前かがみから立位へ移行する移動経路の中でもその中点のことを「立ち上がり中間点」と記載する場合がある。図23は、立ち上がり中間点の一例を示す図である。図23には、前かがみにおける患者のモデルが破線で示されると共に立位における患者のモデルが実線で示されている。図23に示すように、立ち上がり中間点における頭部の位置は、図中の黒丸の塗りつぶしで示された矩形の位置となる。このうち、X立ち上がり中間点は、X前かがみ及びXベッドの傍で立位の頭部の位置を用いることにより求めることができる。すなわち、行動検出装置100は、「(X前かがみ+Xベッドの傍で立位)÷2」の計算により、端座位の頭部の位置X立ち上がり中間点を算出する。また、Z立ち上がり中間点は、Z前かがみ及びZベッドの傍で立位の頭部の位置を用いることにより求めることができる。すなわち、行動検出装置100は、「(Z前かがみ+Zベッドの傍で立位)÷2」の計算により、端座位の頭部の位置Z立ち上がり中間点を算出する。なお、端座位の頭部の位置Y立ち上がり中間点には、Z軸方向への投射によりベッド3の就床面に投影できるY座標であれば任意のY座標を採用できる。
このようにして、行動検出装置100は、患者がベッド3の左側端で端座位の姿勢をとる場合とベッド3の右側端で端座位の姿勢をとる場合とに分けて上記の立ち上がり中間点を算出すると共に、地面座標系の3次元空間上でベッド3が存在するY座標がベッド3の奥行き方向に向かって所定の間隔、例えば10cmで区切られたピッチごとに上記の立ち上がり中間点を算出する。このように立ち上がり中間点が算出されると、図24に示す通りとなる。図24は、立ち上がり中間点の算出結果の一例を示す図である。図24には、地面座標系のXY平面上及びYZ平面上に立ち上がり中間点がプロットして示されている。その後、行動検出装置100は、立ち上がり中間点の各座標を地面座標系から画像座標系へ変換する。この結果は、図25の通りとなる。図25は、立ち上がりラインの設定方法の一例を示す図である。図25の上段には、画像座標系に各立ち上がり中間点がプロットして示されている。その上で、行動検出装置100は、立ち上がり中間点のうちベッド3の奥行き方向に向かって隣接する立ち上がり中間点を互いに結ぶことにより、図25の下段に示すように、左右の端座位ごとに立ち上がりライン50L及び50Rを算出する。
[分散および統合]
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されておらずともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、頭部検知部110、第1通過判定部120、立ち上がりライン設定部130、第2通過判定部140または通知部150を行動検出装置100の外部装置としてネットワーク経由で接続するようにしてもよい。また、頭部検知部110、第1通過判定部120、立ち上がりライン設定部130、第2通過判定部140または通知部150を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記の行動検出装置100の機能を実現するようにしてもよい。
[行動検出プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図26を用いて、上記の実施例と同様の機能を有する行動検出プログラムを実行するコンピュータの一例について説明する。
図26は、実施例1及び実施例2に係る行動検出プログラムを実行するコンピュータのハードウェア構成例を示す図である。図26に示すように、コンピュータ1100は、操作部1110aと、スピーカ1110bと、カメラ1110cと、ディスプレイ1120と、通信部1130とを有する。さらに、このコンピュータ1100は、CPU1150と、ROM1160と、HDD1170と、RAM1180とを有する。これら1110〜1180の各部はバス1140を介して接続される。
HDD1170には、図26に示すように、上記の実施例1で示した頭部検知部110、第1通過判定部120、立ち上がりライン設定部130、第2通過判定部140及び通知部150と同様の機能を発揮する行動検出プログラム1170aが記憶される。この行動検出プログラム1170aは、図1に示した頭部検知部110、第1通過判定部120、立ち上がりライン設定部130、第2通過判定部140及び通知部150の各構成要素と同様、統合又は分離してもかまわない。すなわち、HDD1170には、必ずしも上記の実施例1で示した全てのデータが格納されずともよく、処理に用いるデータがHDD1170に格納されればよい。
このような環境の下、CPU1150は、HDD1170から行動検出プログラム1170aを読み出した上でRAM1180へ展開する。この結果、行動検出プログラム1170aは、図26に示すように、行動検出プロセス1180aとして機能する。この行動検出プロセス1180aは、RAM1180が有する記憶領域のうち行動検出プロセス1180aに割り当てられた領域にHDD1170から読み出した各種データを展開し、この展開した各種データを用いて各種の処理を実行する。例えば、行動検出プロセス1180aが実行する処理の一例として、図16に示す処理などが含まれる。なお、CPU1150では、必ずしも上記の実施例1で示した全ての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されればよい。
なお、上記の行動検出プログラム1170aは、必ずしも最初からHDD1170やROM1160に記憶されておらずともかまわない。例えば、コンピュータ1100に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ1100がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ1100に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ1100がこれらから各プログラムを取得して実行するようにしてもよい。
1 行動検出システム
10 設定装置
11 第1パラメータ取得部
12 モデル生成部
13 移動経路算出部
14 前かがみライン算出部
15 第2パラメータ取得部
16 座標変換部
17 設定部
18 学習部
100 行動検出装置
110 頭部検知部
120 第1通過判定部
130 立ち上がりライン設定部
140 第2通過判定部
150 通知部

Claims (5)

  1. コンピュータが、
    画像から頭部の位置を検知し、
    前記頭部の位置に基づいて前記画像のベッド領域で検出対象者がベッドの幅方向に腰掛け、腰掛けた状態から立ち上がる際の前かがみになる動作を検知し、
    前記頭部の移動が前かがみと検出された場合に、前記頭部の移動経路に基づいて、前記前かがみの最下点と、前記ベッドの脇に立ち上がった際の頭部の位置との間に前記検出対象者の離床を判定する立ち上がり検出ラインを前記前かがみの動作が検知される前かがみ検出ラインと重ならない位置へ動的に設定し、
    動的に設定された立ち上がり検出ラインを頭部が通過した場合に立ち上がり動作を検出する
    処理を実行することを特徴とする行動検出方法。
  2. 前記設定する処理は、前記頭部の移動経路の法線方向に前記立ち上がり検出ラインを設定することを特徴とする請求項1に記載の行動検出方法。
  3. 前記設定する処理は、前記前かがみの最下点と前記ベッドの脇に立ち上がった際の頭部の位置との中点を通る立ち上がり検出ラインを設定することを特徴とする請求項1に記載の行動検出方法。
  4. 前記コンピュータが、
    前記頭部の位置が前記画像のベッド領域上で前記検出対象者が臥位または座位のいずれであるのかを判定する起床ラインの内部に存在する場合に、前記前かがみになる動作の検知、前記立ち上がり検出ラインの設定、または、前記立ち上がり動作の検出のうちいずれかの処理を停止する処理をさらに実行することを特徴とする請求項1に記載の行動検出方法。
  5. 画像から頭部の位置を検知する頭部検知部と、
    前記頭部の位置に基づいて前記画像のベッド領域で検出対象者がベッドの幅方向に腰掛け、腰掛けた状態から立ち上がる際の前かがみになる動作を検知する第1判定部と、
    前記頭部の移動が前かがみと検出された場合に、前記頭部の移動経路に基づいて、前記前かがみの最下点と、前記ベッドの脇に立ち上がった際の頭部の位置との間に前記検出対象者の離床を判定する立ち上がり検出ラインを前記前かがみの動作が検知される前かがみ検出ラインと重ならない位置へ動的に設定する設定部と、
    動的に設定された立ち上がり検出ラインを頭部が通過した場合に立ち上がり動作を検出する第2判定部と
    を有することを特徴とする行動検出装置。
JP2015041791A 2015-03-03 2015-03-03 行動検出方法及び行動検出装置 Active JP6455234B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015041791A JP6455234B2 (ja) 2015-03-03 2015-03-03 行動検出方法及び行動検出装置
CN201610105158.4A CN105938540B (zh) 2015-03-03 2016-02-25 行为检测方法和行为检测设备
US15/056,039 US9477880B2 (en) 2015-03-03 2016-02-29 Behavior detection method and behavior detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015041791A JP6455234B2 (ja) 2015-03-03 2015-03-03 行動検出方法及び行動検出装置

Publications (2)

Publication Number Publication Date
JP2016158952A JP2016158952A (ja) 2016-09-05
JP6455234B2 true JP6455234B2 (ja) 2019-01-23

Family

ID=56843837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015041791A Active JP6455234B2 (ja) 2015-03-03 2015-03-03 行動検出方法及び行動検出装置

Country Status (3)

Country Link
US (1) US9477880B2 (ja)
JP (1) JP6455234B2 (ja)
CN (1) CN105938540B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170116437A (ko) * 2016-04-11 2017-10-19 전자부품연구원 스키 시뮬레이터에서 사용자 자세 인식 장치 및 그 방법
CN106595647B (zh) * 2016-12-14 2020-05-05 北京理工大学珠海学院 行为状态的监测方法、装置及***
JP6635074B2 (ja) 2017-03-02 2020-01-22 オムロン株式会社 見守り支援システム及びその制御方法
JP6406371B2 (ja) * 2017-03-02 2018-10-17 オムロン株式会社 見守り支援システム及びその制御方法
WO2019206239A1 (en) * 2018-04-27 2019-10-31 Shanghai Truthvision Information Technology Co., Ltd. Systems and methods for detecting a posture of a human object
CN111103875B (zh) * 2018-10-26 2021-12-03 科沃斯机器人股份有限公司 避让的方法、设备及存储介质
CN112861562A (zh) * 2019-11-12 2021-05-28 北京君正集成电路股份有限公司 一种检测坐姿异常的检测方法及其***
JP7438847B2 (ja) * 2020-05-12 2024-02-27 京セラ株式会社 監視システム、監視装置、監視方法、及びプログラム
CN112887600B (zh) * 2021-01-25 2022-08-05 睿魔智能科技(深圳)有限公司 一种基于起立行为检测的拍摄方法及***
CN113657189B (zh) * 2021-07-26 2024-02-09 浙江大华技术股份有限公司 行为检测方法、电子装置和计算机可读存储介质
CN114627430B (zh) * 2021-12-30 2023-04-07 东莞先知大数据有限公司 一种拿取外卖的检测方法、装置及存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4122814B2 (ja) * 2002-04-03 2008-07-23 トヨタ自動車株式会社 乗員検知装置
JP2005168590A (ja) * 2003-12-08 2005-06-30 Matsushita Electric Ind Co Ltd 運動評価装置
US7613324B2 (en) * 2005-06-24 2009-11-03 ObjectVideo, Inc Detection of change in posture in video
JP4963101B2 (ja) * 2007-11-13 2012-06-27 パラマウントベッド株式会社 ベッドにおける使用者の状態検知システム
JP5230371B2 (ja) * 2008-11-21 2013-07-10 パナソニック株式会社 照明システム
JP5682203B2 (ja) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法
JP5782737B2 (ja) * 2011-02-17 2015-09-24 富士通株式会社 状態検知装置、状態検知方法および状態検知プログラム
JP2013149205A (ja) * 2012-01-23 2013-08-01 Nikon Corp 電子機器
JP6171415B2 (ja) * 2013-03-06 2017-08-02 ノーリツプレシジョン株式会社 情報処理装置、情報処理方法、及び、プログラム
JP6119356B2 (ja) * 2013-03-25 2017-04-26 富士通株式会社 報知プログラム、報知方法および報知装置
CN103186775B (zh) * 2013-03-27 2016-01-20 西安电子科技大学 基于混合描述子的人体运动识别方法
JP6115335B2 (ja) * 2013-06-10 2017-04-19 ノーリツプレシジョン株式会社 情報処理装置、情報処理方法、及び、プログラム
CN103686092B (zh) * 2013-12-30 2016-09-14 深圳锐取信息技术股份有限公司 学生起立双***检测方法及***

Also Published As

Publication number Publication date
CN105938540A (zh) 2016-09-14
US9477880B2 (en) 2016-10-25
JP2016158952A (ja) 2016-09-05
CN105938540B (zh) 2019-08-16
US20160259969A1 (en) 2016-09-08

Similar Documents

Publication Publication Date Title
JP6455234B2 (ja) 行動検出方法及び行動検出装置
CN109788215B (zh) 图像处理装置、计算机可读存储介质以及图像处理方法
JP6115335B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2014064870A1 (ja) 画像処理装置および画像処理方法
JP6547563B2 (ja) 検出プログラム、検出方法及び検出装置
JP2010165248A (ja) 画像処理装置、画像照合方法、および、プログラム
JP2014106732A (ja) 情報処理装置および情報処理方法
JP6248780B2 (ja) 脈波検出装置、脈波検出方法及び脈波検出プログラム
JP6728865B2 (ja) 手上げ検出装置及び手上げ検出プログラム
WO2012121137A1 (ja) 画像処理装置および画像処理プログラム
JP6264181B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5419757B2 (ja) 顔画像合成装置
JP2008146106A (ja) 三次元物体を検出する装置
JP7243725B2 (ja) 対象物体検出プログラム、および対象物体検出装置
JP5419773B2 (ja) 顔画像合成装置
JP2020112928A (ja) 背景モデル生成装置、背景モデル生成方法及び背景モデル生成プログラム
JP6613828B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP6212878B2 (ja) 画像処理装置、画像処理システム及びプログラム
JP7309392B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2018092507A (ja) 画像処理装置、画像処理方法及びプログラム
CN110852932B (zh) 图像处理方法及装置、图像设备及存储介质
JP2014134890A (ja) 画像データ処理装置
JP2016115332A (ja) 画像処理装置およびその制御方法ならびにプログラム
JP2015099483A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
CN117499795A (zh) 信息处理方法以及信息处理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181203

R150 Certificate of patent or registration of utility model

Ref document number: 6455234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150