JP6417670B2 - 監視装置、監視システム、監視方法、監視プログラム、および監視プログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

監視装置、監視システム、監視方法、監視プログラム、および監視プログラムを記録したコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP6417670B2
JP6417670B2 JP2014031444A JP2014031444A JP6417670B2 JP 6417670 B2 JP6417670 B2 JP 6417670B2 JP 2014031444 A JP2014031444 A JP 2014031444A JP 2014031444 A JP2014031444 A JP 2014031444A JP 6417670 B2 JP6417670 B2 JP 6417670B2
Authority
JP
Japan
Prior art keywords
monitoring
area
subject
region
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014031444A
Other languages
English (en)
Other versions
JP2015156603A (ja
Inventor
田中 純一
純一 田中
冨実二 相田
冨実二 相田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2014031444A priority Critical patent/JP6417670B2/ja
Priority to CN201580005315.8A priority patent/CN106416237B/zh
Priority to US15/114,034 priority patent/US10674941B2/en
Priority to PCT/JP2015/053928 priority patent/WO2015125701A1/ja
Priority to EP15752133.7A priority patent/EP3110144B1/en
Publication of JP2015156603A publication Critical patent/JP2015156603A/ja
Application granted granted Critical
Publication of JP6417670B2 publication Critical patent/JP6417670B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1115Monitoring leaving of a patient support, e.g. a bed or a wheelchair
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6889Rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/08Elderly
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Multimedia (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Radiology & Medical Imaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)
  • Invalid Beds And Related Equipment (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、監視装置、監視システム、監視方法、監視プログラム、および監視プログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
高齢者などの介護を必要とする居住者に生じた異常状態を自動的に検知するための技術が知られている。たとえば、特許文献1(特開2000−285223号公報)の転倒検知装置は、居住者を側方から撮像する壁面カメラと、居住者を上方から撮像する天井カメラとを備える。画像処理手段が、カメラにより撮像された撮像映像を用いて居住者から壁面カメラまでの距離及び居住者の高さ情報を算出する。高さ補正手段が、居住者の高さ情報について居住者から壁面カメラまでの距離の違いにより生じる誤差を補正する。判断手段が、補正により得られた居住者の高さ情報の時間あたりの変化に基づいて居住者の転倒動作を検知する。
特開2000−285223号公報
しかしながら、特許文献1の装置では、居住者がベッドに寝るような行動をした場合にも、居住者の高さ情報の時間あたりの変化に基づいて居住者が転倒したと判断してしまう。
さらに、居住者が実際に転倒した場合だけでなく、居住者が転倒する可能性が発生した場合も検知できることが望ましい。事前に転倒可能性を知ることによって、居住者の転倒を防止できるからである。
それゆえに、本発明の目的は、監視領域にベッドが設置されている場合でも、監視対象者の転倒に関する動作状態、すなわち転倒状態または転倒する可能性のある状態を検知することができる監視装置、監視システム、監視方法、監視プログラム、および監視プログラムを記録したコンピュータ読み取り可能な記録媒体を提供することである。
本発明の監視装置は、監視領域の上方に設けられた第1の画像センサで監視領域を撮像することによって得られる上方撮像データと、監視領域の側方に設けられた第2の画像センサで監視領域を撮像することによって得られる側方撮像データに基づいて、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定する位置特定部と、水平方向の位置と鉛直方向の最も高い位置に基づいて、監視対象者の転倒に関する動作状態を判断する動作判断部とを備える。
好ましくは、動作判断部は、監視対象者の水平方向の位置が第1の領域に含まれ、かつ監視対象者の鉛直方向の最も高い位置が第1の所定値以下の場合に、監視対象者が臥位状態であると判断する。
好ましくは、動作判断部は、監視対象者の水平方向の位置がベッドが第1の領域に含まれ、かつ監視対象者の鉛直方向の最も高い位置が第1の所定値を超える場合に、監視対象者が座位状態であると判断する。
好ましくは、動作判断部は、監視対象者の水平方向の位置が第1の領域の周辺の領域である第2の領域に含まれ、かつ監視対象者の鉛直方向の最も高い位置が第1の所定値以上の場合に、監視対象者が端座位状態であると判断する。
好ましくは、監視領域は、前記監視対象者が居住する空間であり、第1の領域はベッドが設置された領域である。
好ましくは、位置特定部は、上方撮像データから、監視対象者の水平方向の長さを算出する。動作判断部は、監視対象者の水平方向の位置が第2の領域に含まれ、かつ監視対象者の鉛直方向の最も高い位置が第1の所定値以下で、かつ監視対象者の水平方向の長さが第2の所定値以上のときに、監視対象者がベッドから転落した状態であると判断する。
好ましくは、動作判断部は、監視対象者の水平方向の位置が第1の領域および第2の領域の両方を除く領域である第3の領域に含まれ、かつ監視対象者の鉛直方向の最も高い位置が第1の所定値以下の場合に、監視対象者が転倒状態であると判断する。
好ましくは、動作判断部は、監視対象者の水平方向の位置が第3の領域に含まれ、かつ監視対象者の鉛直方向の最も高い位置が第1の所定値を超える場合に、監視対象者が立位状態であると判断する。
好ましくは、位置特定部は、側方撮像データに基づいて、監視対象者の鉛直方向の最も低い位置を特定する。動作判断部は、監視対象者の鉛直方向の最も低い位置が第3の所定値以上の場合に、監視対象者がベッドが設置された領域に存在すると判断する。
好ましくは、位置特定部は、第1の画像センサで監視領域を撮像することによって得られる上方撮像データから、監視領域に存在する人の数を特定し、特定した人の数が1個の場合に限り、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定する。
本発明の監視システムは、監視領域の上方に設けられた第1の画像センサと、監視領域の側方に設けられた第2の画像センサと、第1の画像センサで監視領域を撮像することによって得られる上方撮像データと、第2の画像センサで監視領域を撮像することによって得られる側方撮像データに基づいて、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定する位置特定部と、水平方向の位置と鉛直方向の最も高い位置に基づいて、監視対象者の転倒に関する動作状態を判断する動作判断部とを備える。
本発明の監視方法は、監視領域の上方に設けられた第1の画像センサで監視領域を撮像することによって得られる上方撮像データと、監視領域の側方に設けられた第2の画像センサで監視領域を撮像することによって得られる側方撮像データに基づいて、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定するステップと、水平方向の位置と鉛直方向の最も高い位置に基づいて、監視対象者の転倒に関する動作状態を判断するステップとを備える。
本発明の監視プログラムは、コンピュータを、監視領域の上方に設けられた第1の画像センサで監視領域を撮像することによって得られる上方撮像データと、監視領域の側方に設けられた第2の画像センサで監視領域を撮像することによって得られる側方撮像データに基づいて、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定する位置特定部と、水平方向の位置と鉛直方向の最も高い位置に基づいて、監視対象者の転倒に関する動作を判断する動作判断部として機能させる。
本発明の監視プログラムを記録したコンピュータ読み取り可能な記録媒体は、コンピュータを、監視領域の上方に設けられた第1の画像センサで監視領域を撮像することによって得られる上方撮像データと、監視領域の側方に設けられた第2の画像センサで監視領域を撮像することによって得られる側方撮像データに基づいて、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定する位置特定部と、水平方向の位置と鉛直方向の最も高い位置に基づいて、監視対象者の転倒に関する動作状態を判断する動作判断部として機能させる。
本発明によれば、監視領域にベッドが設置されている場合でも、監視対象者の転倒に関する動作状態を検知することができる。
第1の実施形態の監視システムの構成を表わす図である。 監視領域を表わす立体図である。 第1の赤外線画像を説明するための図である。 第2の赤外線画像を説明するための図である。 画像処理部の処理手順を表わすフローチャートである。 第1の実施形態による監視対象者の動作判断手順を表わすフローチャートである。 監視対象者が転倒状態の場合の監視領域の状態を表わす図である。 監視領域が図7に示す状態のときの第2のラベリング画像データを表わす図である。 監視対象者が立位状態の場合の監視領域の状態を表わす図である。 監視領域が図9に示す状態のときの第2のラベリング画像データを表わす図である。 監視対象者が臥位状態の場合の監視領域の状態を表わす図である。 監視領域が図11に示す状態のときの第2のラベリング画像データを表わす図である。 監視対象者が座位状態の場合の監視領域の状態を表わす図である。 監視領域が図13に示す状態のときの第2のラベリング画像データを表わす図である。 監視対象者が端座位状態の場合の監視領域の状態を表わす図である。 監視領域が図15に示す状態のときの第2のラベリング画像データを表わす図である。 監視対象者が転落状態の場合の監視領域の状態を表わす図である。 監視領域が図17に示す状態のときの第2のラベリング画像データを表わす図である。 監視領域が図17に示す状態のときの第1のラベリング画像データを表わす図である。 第2の実施形態による監視対象者の動作判断手順を表わすフローチャートである。 監視対象者がベッド領域に存在するときの第2のラベリング画像データを表わす図である。
以下、本発明の実施の形態について図面を用いて説明する。
[第1の実施形態]
以下の説明で、監視対象者とは高齢者などの介護を必要とする居住者を意味し、監視領域とは、監視対象者が居住する空間を意味する。
図1は、第1の実施形態の監視システム1の構成を表わす図である。
図1に示すように、この監視システム1は、上方画像センサ2と、側方画像センサ3と、監視装置20とを備える。監視装置20は、位置特定部4と、動作判断部5と、表示部21とを備える。
位置特定部4は、動作判断部5は、図示しないコンピュータが、監視プログラムを実行することによって実現される。言い換えると、監視プログラムは、コンピュータを位置特定部4および動作判断部5として機能させる。監視プログラムは、メモリカード、CDROM、DVDなどのコンピュータ読みとり可能な記録媒体に記録されて、コンピュータにインストールされる。
位置特定部4は、画像処理部9と、人数特定部6と、水平位置特定部7と、垂直位置特定部8と、水平長さ検出部10とを備える。
上方画像センサ2は、監視領域を上方から撮像する。側方画像センサ3は、監視領域を側方から撮像する。本実施の形態では、上方画像センサ2および側方画像センサ3は、赤外線アレイセンサで構成されるものとして説明するが、可視カメラなどのその他のセンサで構成されるものであってもよい。
上方画像センサ2から出力される第1の赤外線画像データは、画像処理部9に送られる。側方画像センサ3から出力される第2の赤外線画像データは、画像処理部9に送られる。
赤外線画像データは、画素値が高いほど撮像した領域の温度が高く、画素値が低いほど、撮像した領域の温度が低いという特徴がある。人が存在する領域は、温度が高いため、人を撮像した領域の画素の値は高くなる。したがって、赤外線画像データから、画素値が高い領域を見つけることによって、人が存在する領域を特定することができる。
図2は、監視領域を表わす立体図である。
図2に示すように、監視領域の上方に上方画像センサ2が設置され、監視領域の側方に側方画像センサ3が設置される。
監視領域にはベッド90が設けられている。ベッド90が存在する領域を領域Aとし、ベッド90の周囲の領域を領域Bとする。たとえば、ベッド90の縁から50cmまでの領域を領域Bとする。監視領域内で、領域Aと領域Bを除く領域が領域Cである。
主として、監視対象者が領域Cで転倒状態であるか否かを判断するために、鉛直方向の基準値BA1が設定される。監視対象者の身体の最も高い点が基準値BA1以下の場合に、監視対象者が転倒状態であると判断される。また、後述の第2の実施形態において、監視対象者がベッドが存在する領域に存在するか否かを判断するために、鉛直方向の基準値BA3が設定される。また、監視対象者が領域Bで転倒状態の一種であるベッドからの転落状態であるか否かを判断するために、水平方向の基準値BA2が設定される。監視対象者の水平方向の長さが基準値BA2以上の場合に、監視対象者が転落状態であると判断される。
図3は、第1の赤外線画像を説明するための図である。第1の赤外線画像は、X方向に16画素、Y方向に16画素から構成される。
領域Aを撮像した部分を第1のブロック、領域Bを撮像した部分を第2のブロック、領域Cを撮像した部分を第3のブロックとする。
監視領域の基準値BA2は、第1の赤外線画像では画素間の所定の距離TH2で表わされる。
図4は、第2の赤外線画像を説明するための図である。第2の赤外線画像は、X方向に16画素、Y方向に16画素から構成される。監視領域の基準値BA1は、第2の赤外線画像では、所定のY座標TH1で表わされる。監視領域の基準値BA3は、第2の赤外線画像では、所定のY座標TH3で表わされる。
図5は、画像処理部9の処理手順を表わすフローチャートである。
ステップS201において、画像処理部9は、上方画像センサ2から出力される第1の赤外線画像データに含まれる画素値が所定値以上の画素の値を「1」とし、画素値が所定値未満の画素の値を「0」とした第1の2値化画像データを生成する。
ステップS202において、画像処理部9は、第1の2値化赤外線画像データから、人が存在する領域の画素の値が「1」にラベリングし、人が存在しない領域の画素の値を「0」にラベリングした第1のラベリング画像データを生成する。すなわち、画像処理部9は、第1の2値化画像データの中で、値が「1」である画素が連続し、その連続する領域が一定の大きさ以上(すなわち、画素数が所定値以上)の場合に、その連続する領域の画素の値を「1」にラベリングする。また、画像処理部9は、第1の2値化赤外線画像データの中で、値が「1」である画素が連続するが、その連続する領域が一定の大きさ未満(すなわち、画素数が所定値以上)の場合に、その連続する領域の画素の値を「0」にラベリングする。また、画像処理部9は、第1の2値化画像データの中で、値が「1」である画素が、値が「1」である画素と隣接していない場合に、その値が「1」である画素の値を「0」にラベリングする。すなわち、画像処理部9は、第1の2値化画像データの中で、値が「0」である画素を「0」にラベリングする。
ステップS203において、画像処理部9は、側方画像センサ3から出力される第2の赤外線画像データに含まれる画素値が所定値以上の画素の値を「1」とし、画素値が所定値未満の画素の値を「0」とした第2の2値化画像データを生成する。
ステップS204において、画像処理部9は、第2の2値化赤外線画像データから、ステップS202と同様にして、人が存在する領域の画素の値が「1」にラベリングし、人が存在しない領域の画素の値を「0」にラベリングした第2のラベリング画像データを生成する。
人数特定部6は、第1のラベリング画像データに基づいて、監視領域内に存在する人の数を特定する。
水平位置特定部7は、第1のラベリング画像データに基づいて、監視対象者の水平方向の重心の位置を特定する。
垂直位置特定部8は、第1のラベリング画像データと第2のラベリング画像データに基づいて、監視対象者の最も高い位置を特定する。
水平長さ検出部10は、第1のラベリング画像データに基づいて、監視対象者の水平方向の長さを検出する。
動作判断部5は、監視対象者の水平方向の重心の位置、監視対象者の最も高い位置、および監視対象者の水平方向の長さに基づいて、監視対象者の転倒に関する動作状態を判断する。ここで、転倒とは、歩行中躓きやよろめきによって転ぶことと、ベッドからの転落を含む。
動作判断部5は、転倒動作以外にも、立位状態、ベッドに座っている状態(座位状態)、ベッドの端に座っている状態(端座位状態)を判断する。これは、特に、監視対象者が歩行に困難があるような場合、監視対象者が座位状態および端座位状態にあるときは、監視対象者が近い将来、起き上がって転倒する可能性があり、注意する必要があるからである。
表示部21は、動作判断部5によって判断された結果を表示する。監視対象者の監視に携わる者は、表示部21に転倒状態が表示されたときには、たとえば監視領域に駆けつけて監視対象者の救助を行なう。また、監視対象者の監視に携わる者は、表示部21に座位状態や端座位状態が表示されたときには、たとえば、監視領域に駆けつけ監視対象者に警告を与える。
図6は、第1の実施形態による監視対象者の動作判断手順を表わすフローチャートである。
ステップS101において、画像処理部9は、上方画像センサ2から出力される第1の赤外線画像データおよび側方画像センサ3から出力される第2の赤外線画像データから、図5に示す手順に従って画像処理を実行することによって、第1のラベリング画像データおよび第2のラベリング画像データを生成する。
ステップS102において、人数特定部6は、第1のラベリング画像データの中で「1」にラベリングされている連続領域の個数に基づいて、監視領域の人数を特定する。人数特定部6は、第1のラベリング画像データの中で「1」にラベリングされている連続領域がN個である場合に、監視領域にN人が存在すると判断する。
ステップS103において、人数特定部6は、監視領域に1人が存在する場合には、監視対象者のみが存在すると判断し、処理がステップS104に進む。人数特定部6は、監視領域に複数人が存在する場合には、監視対象者と監視対象者以外の人物(たとえば付き添い人など)が存在すると判断し、監視システム1による監視の必要性がないと判断し、処理が終了する。
ステップS104において、水平位置特定部7は、第1のラベリング画像データに基づいて、監視対象者の身体の重心の水平位置を特定する。水平位置特定部7は、監視対象者の身体の重心が、図2に示す領域C(ベッド領域およびベッド周辺領域の両方を除く領域)に含まれるか否かを判断する。すなわち、水平位置特定部7は、第1のラベリング画像データの中の「1」にラベリングされた領域の重心の画素が、領域Cに対応する図3に示す第3のブロックに含まれる場合に、監視対象者の重心が領域Cに含まれると判断する。水平位置特定部7は、第1のラベリング画像データの中の監視対象者を表わす「1」にラベリングされた領域の重心の画素が、図3に示す第3のブロックに含まれない場合に、監視対象者の重心が領域Cに含まれないと判断する。水平位置特定部7が、監視対象者が領域Cに含まれると判断した場合には、処理がステップS105に進み、監視対象者が領域Cに含まれないと判断した場合には、処理がステップS108に進む。
ステップS105において、垂直位置特定部8は、第2のラベリング画像データに基づいて、監視対象者の身体の最も高い点が、図2に示す基準値BA1以下か否かを判断する。すなわち、垂直位置特定部8は、第2のラベリング画像データの中の「1」にラベリングされた領域をステップS104で求めた身体の重心の画素の位置に基づいて補正する。これは、監視対象者が側方画像センサ3に近い位置に存在するほど、監視対象者が存在する領域のY座標が大きくなるため、監視対象者が水平方向のどの位置にいても、Y座標が一定となるようにするためである。垂直位置特定部8は、第2のラベリング画像データの補正された「1」にラベリングされた領域の画素のY座標のうち、最大のY座標を特定する。垂直位置特定部8が、特定した最大のY座標YMAXが、基準値BA1に対応する図3に示す所定値TH1以下と判断した場合には、処理がステップS106に進む。垂直位置特定部8が、特定した最大のY座標YMAXが所定値TH1を超えると判断した場合には、処理がステップS107に進む。
ステップS106において、動作判断部5は、監視対象者が転倒状態であると判断する。
図7は、監視対象者が転倒状態の場合の監視領域の状態を表わす図である。図8は、監視領域が図7に示す状態のときの第2のラベリング画像データを表わす図である。第2のラベリング画像データの中の「1」にラベリングされた領域の画素のY座標の中の最大のY座標は「3」である。ここでは、所定値TH1が「7」に設定されているため、監視対象者が転倒状態であると判断される。
ステップS107において、動作判断部5は、監視対象者が立位状態であると判断する。
図9は、監視対象者が立位状態の場合の監視領域の状態を表わす図である。図10は、監視領域が図9に示す状態のときの第2のラベリング画像データを表わす図である。第2のラベリング画像データの中の「1」にラベリングされた領域の画素のY座標の中の最大のY座標は「12」である。ここでは、所定値TH1が「7」に設定されているため、監視対象者が立位状態であると判断される。
ステップS108において、水平位置特定部7は、第1のラベリング画像データに基づいて、監視対象者の身体の重心の水平位置を特定する。水平位置特定部7は、監視対象者の身体の重心が、図2に示す領域A(ベッド領域)に含まれるか否かを判断する。すなわち、水平位置特定部7は、第1のラベリング画像データの中の監視対象者を表わす「1」にラベリングされた領域の重心の画素が、領域Aに対応する図3に示す第1のブロックに含まれる場合に、監視対象者の重心が領域Aに含まれると判断し、第1のラベリング画像データの中の「1」にラベリングされた領域の重心の画素が、図3に示す第1のブロックに含まれない場合に、監視対象者の重心が領域Aに含まれないと判断する。水平位置特定部7が、監視対象者が領域Aに含まれると判断した場合には、処理がステップS109に進み、監視対象者が領域Aに含まれないと判断した場合には、処理がステップS112に進む。
ステップS109において、垂直位置特定部8は、第2のラベリング画像データに基づいて、監視対象者の身体の最も高い点が図2に示す基準値BA1以下か否かを判断する。すなわち、垂直位置特定部8は、第2のラベリング画像データの中の「1」にラベリングされた領域をステップS108で求めた身体の重心の画素の位置に基づいて補正する。垂直位置特定部8は、第2のラベリング画像データの補正された「1」にラベリングされた領域の画素のY座標のうち、最大のY座標を特定する。垂直位置特定部8が、特定した最大のY座標YMAXが、基準値BA1に対応する図3に示す所定値TH1以下と判断した場合には、処理がステップS110に進む。垂直位置特定部8が、特定した最大のY座標YMAXが所定値TH1を超えると判断した場合には、処理がステップS111に進む。
ステップS110において、動作判断部5は、監視対象者が臥位状態であると判断する。
図11は、監視対象者が臥位状態の場合の監視領域の状態を表わす図である。図12は、監視領域が図11に示す状態のときの第2のラベリング画像データを表わす図である。第2のラベリング画像データの中の「1」にラベリングされた領域の画素のY座標の中の最大のY座標は「5」である。ここでは、所定値TH1が「5」に設定されているため、監視対象者が臥位状態であると判断される。
ステップS111において、動作判断部5は、監視対象者が座位状態であると判断する。
図13は、監視対象者が座位状態の場合の監視領域の状態を表わす図である。図14は、監視領域が図13に示す状態のときの第2のラベリング画像データを表わす図である。第2のラベリング画像データの中の「1」にラベリングされた領域の画素のY座標の中の最大のY座標は「9」である。ここでは、所定値TH1が「7」に設定されているため、監視対象者が座位状態であると判断される。
ステップS112において、垂直位置特定部8は、第2のラベリング画像データに基づいて、監視対象者の身体の最も高い点が図2に示す基準値BA1以下か否かを判断する。すなわち、垂直位置特定部8は、第2のラベリング画像データの中の「1」にラベリングされた領域をステップS108で求めた身体の重心の画素の位置に基づいて補正する。垂直位置特定部8は、第2のラベリング画像データの補正された「1」にラベリングされた領域の画素のY座標のうち、最大のY座標を特定する。垂直位置特定部8が、特定した最大のY座標YMAXが、基準値BA1に対応する図3に示す所定値TH1以下と判断した場合には、処理がステップS114に進む。垂直位置特定部8が、特定した最大のY座標YMAXが所定値TH1を超えると判断した場合には、処理がステップS113に進む。
ステップS113において、動作判断部5は、監視対象者が端座位状態であると判断する。
図15は、監視対象者が端座位状態の場合の監視領域の状態を表わす図である。図16は、監視領域が図15に示す状態のときの第2のラベリング画像データを表わす図である。第2のラベリング画像データの中の「1」にラベリングされた領域の画素のY座標の中の最大のY座標は「9」である。ここでは、所定値TH1が「7」に設定されているため、監視対象者が端座位状態であると判断される。
ステップS114において、水平長さ検出部10は、第1のラベリング画像データに基づいて、監視対象者の水平方向の長さが基準値BA2以上であるか否かを判断する。すなわち、水平長さ検出部10は、第1のラベリング画像データの中の「1」にラベリングされた領域の主軸の長さ(「1」にラベリングされた領域に描ける最大の長さの線の両端の画素間のユークリッド距離)Dを求める。水平長さ検出部10は、主軸の長さDが基準値BA2に対応する所定値TH2以上と判断した場合には、処理がステップS115に進み、所定値TH2未満と判断した場合には、処理が終了する。
ステップS115において、動作判断部5は、転倒状態の一種であるベッドからの転落状態であると判断する。
図17は、監視対象者が転落状態の場合の監視領域の状態を表わす図である。図18は、監視領域が図17に示す状態のときの第2のラベリング画像データを表わす図である。第2のラベリング画像データの中の「1」にラベリングされた領域の画素のY座標の中の最大のY座標は「3」であり、所定値TH1(=「7」)よりも小さい。
図19は、監視領域が図17に示す状態のときの第1のラベリング画像データを表わす図である。
第1のラベリング画像データの中の「1」にラベリングされた領域の主軸の長さDは、681/2であり、所定値TH2(=「7」)以上ある。したがって、監視対象者が転落状態であると判断される。
以上のように、本実施の形態によれば、監視領域にベッドが設置されている場合に、監視対象者の転倒に関する動作状態、すなわち、監視対象者の転倒状態、または転倒する可能性のあるベッドでの座位状態およびベッドの端での座位状態を検知することができる。
[第2の実施形態]
第1の実施形態では、第1のラベリング画像を用いて、監視対象者が領域A(ベッド領域)、領域B(ベッド周辺領域)、領域C(ベッド領域およびベッド周辺領域を除く領域)のいずれに存在するかを特定した。本実施の形態では、第2のラベリング画像を用いて、監視対象者がベッド領域に存在するか、あるいはベッド領域以外の領域に存在するかを判断する。本実施の形態では、監視対象者がベッド領域に存在するときには、監視対象者がベッド領域外に存在するときよりも、監視対象者の最低点は高くなり、かつ水平方向の長さも長くなるという特徴を用いる。
図20は、第2の実施形態による監視対象者の動作判断手順を表わすフローチャートである。
ステップS201において、画像処理部9は、上方画像センサ2から出力される第1の赤外線画像データおよび側方画像センサ3から出力される第2の赤外線画像データから、図5に示す手順に従って画像処理を実行することによって、第1のラベリング画像データおよび第2のラベリング画像データを生成する。
ステップS202において、人数特定部6は、第1のラベリング画像データの中で「1」にラベリングされている連続領域の個数に基づいて、監視領域の人数を特定する。人数特定部6は、第1のラベリング画像データの中で「1」にラベリングされている連続領域がN個である場合に、監視領域にN人が存在すると判断する。
ステップS203において、人数特定部6は、監視領域に1人が存在する場合には、監視対象者のみが存在すると判断し、処理がステップS204に進む。人数特定部6は、監視領域に複数人が存在する場合には、監視対象者と監視対象者以外の人物(たとえば付き添い人など)が存在すると判断し、処理が終了する。
ステップS204において、水平位置特定部7は、第1のラベリング画像データに基づいて、監視対象者の身体の重心の水平位置を特定する。すなわち、水平位置特定部7は、第1のラベリング画像データの中の「1」にラベリングされた領域の重心の画素の位置を特定する。
ステップS205において、垂直位置特定部8は、第2のラベリング画像データに基づいて、監視対象者の身体の最も低い点を特定する。すなわち、垂直位置特定部8は、第2のラベリング画像データの中の「1」にラベリングされた領域をステップS204で求めた身体の重心の画素の位置に基づいて補正する。垂直位置特定部8は、第2のラベリング画像データの補正された「1」にラベリングされた領域の画素のY座標のうち、最小のY座標を特定する。
ステップS206において、垂直位置特定部8は、第2のラベリング画像データに基づいて、監視対象者の身体の最も低い点が、図2に示す基準値BA3以上か否かを判断する。すなわち、垂直位置特定部8は、特定した最小のY座標が、基準値BA3に対応する図3に示す所定値TH3以上と判断した場合には、監視対象者がベッド領域に存在する可能性があると判断して、処理がステップS207に進む。垂直位置特定部8が、補正した最小のY座標が所定値TH3未満と判断した場合には、処理がステップS212に進む。
図21は、第2のラベリング画像データを表わす図である。第2のラベリング画像データの中の「1」にラベリングされた領域の画素のY座標の中の最小のY座標は「3」である。ここでは、所定値TH3が「2」に設定されているため、監視対象者がベッド領域に存在する可能性があると判断される。
ステップS207において、水平長さ検出部10は、第1のラベリング画像データに基づいて、監視対象者の水平方向の長さが基準値BA2以上であるか否かを判断する。すなわち、水平長さ検出部10は、第1のラベリング画像データの中の「1」にラベリングされた領域の主軸の長さ(「1」にラベリングされた領域に描ける最大の長さの線の両端の画素間のユークリッド距離)Dを求める。水平長さ検出部10は、主軸の長さDが基準値BA2に対応する所定値TH2以上と判断した場合には、処理がステップS208に進み、所定値TH2未満と判断した場合には、処理がステップS212に進む。
ステップS208において、監視対象者がベッド領域に存在すると判断する。
ステップS209において、垂直位置特定部8は、第2のラベリング画像データに基づいて、監視対象者の身体の最も高い点が図2に示す基準値BA1以下か否かを判断する。すなわち、垂直位置特定部8は、第2のラベリング画像データの中のステップS205で補正された「1」にラベリングされた領域の画素のY座標のうち、最大のY座標を特定する。垂直位置特定部8が、特定した最大のY座標YMAXが、基準値BA1に対応する図3に示す所定値TH1以下と判断した場合には、処理がステップS210に進む。垂直位置特定部8が、特定した最大のY座標YMAXが所定値TH1を超えると判断した場合には、処理がステップS211に進む。
ステップS210において、動作判断部5は、監視対象者が臥位状態であると判断する。
ステップS211において、動作判断部5は、監視対象者が座位状態であると判断する。
ステップS212において、監視対象者がベッド領域外に存在すると判断する。
ステップS213において、垂直位置特定部8は、第2のラベリング画像データに基づいて、監視対象者の身体の最も高い点が図2に示す基準値BA1以下か否かを判断する。すなわち、垂直位置特定部8は、第2のラベリング画像データの中のステップS205で補正された「1」にラベリングされた領域の画素のY座標のうち、最大のY座標を特定する。垂直位置特定部8が、特定した最大のY座標YMAXが、基準値BA1に対応する図3に示す所定値TH1以下と判断した場合には、処理がステップS214に進む。垂直位置特定部8が、補正した最大のY座標YMAXが所定値TH1を超えると判断した場合には、処理がステップS215に進む。
ステップS214において、動作判断部5は、監視対象者が転倒状態であると判断する。
ステップS215において、動作判断部5は、監視対象者が立位状態であると判断する。
以上のように、本実施の形態によれば、本実施の形態によれば、監視領域にベッドが設置されている場合に、ベッドが存在する領域が予め定められていなくても、監視対象者がベッドが存在する領域に存在するか否かを判断することができる。そして、ベッドが存在する領域での臥位状態または座位状態、ベッドが存在しない領域での転倒状態または立位状態を検知することができる。
なお、本実施の形態では、ステップS206でYESの後、ステップS207で、第1のラベリング画像データに基づいて、監視対象者の水平方向の長さが基準値BA2以上であるか否かを判断したが、このステップS207は省略してもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 監視システム、2 上方画像センサ、3 側方画像センサ、4 位置特定部、5 動作判断部、6 人数特定部、7 水平位置特定部、8 垂直位置特定部、9 画像処理部、10 水平長さ検出部、20 監視装置、21 表示部。

Claims (14)

  1. 監視装置であって、
    監視領域の上方に設けられた第1の画像センサで前記監視領域を撮像することによって得られる上方撮像データと、前記監視領域の側方に設けられた第2の画像センサで前記監視領域を撮像することによって得られる側方撮像データに基づいて、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定する位置特定部を備え、
    前記監視領域は、水平方向について、第1の領域と、前記第1の領域の周辺の領域である第2の領域と、前記第1の領域および前記第2の領域を除く第3の領域に分割され、
    前記監視装置は、さらに、
    前記水平方向の位置が前記第1の領域、前記第2の領域、および前記第3の領域のうちのいずれに含まれるかということと、前記鉛直方向の最も高い位置に基づいて、前記監視対象者の転倒に関する動作状態を判断する動作判断部備えた監視装置。
  2. 前記動作判断部は、前記監視対象者の水平方向の位置が第1の領域に含まれ、かつ前記監視対象者の鉛直方向の最も高い位置が第1の所定値以下の場合に、前記監視対象者が臥位状態であると判断する、請求項1記載の監視装置。
  3. 前記動作判断部は、前記監視対象者の水平方向の位置が前記第1の領域に含まれ、かつ前記監視対象者の鉛直方向の最も高い位置が前記第1の所定値を超える場合に、前記監視対象者が座位状態であると判断する、請求項2記載の監視装置。
  4. 監視領域の上方に設けられた第1の画像センサで前記監視領域を撮像することによって得られる上方撮像データと、前記監視領域の側方に設けられた第2の画像センサで前記監視領域を撮像することによって得られる側方撮像データに基づいて、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定する位置特定部と、
    前記水平方向の位置と前記鉛直方向の最も高い位置に基づいて、前記監視対象者の転倒に関する動作状態を判断する動作判断部とを備え、
    前記動作判断部は、前記監視対象者の水平方向の位置が第1の領域に含まれ、かつ前記監視対象者の鉛直方向の最も高い位置が第1の所定値以下の場合に、前記監視対象者が臥位状態であると判断し、
    前記動作判断部は、前記監視対象者の水平方向の位置が前記第1の領域の周辺の領域である第2の領域に含まれ、かつ前記監視対象者の鉛直方向の最も高い位置が第1の所定値以上の場合に、前記監視対象者が端座位状態であると判断する監視装置。
  5. 前記監視領域は、前記監視対象者が居住する空間であり、前記第1の領域はベッドが設置された領域である、請求項4に記載の監視装置。
  6. 前記位置特定部は、前記上方撮像データから、監視対象者の水平方向の長さを算出し、
    前記動作判断部は、前記監視対象者の水平方向の位置が前記第2の領域に含まれ、かつ前記監視対象者の鉛直方向の最も高い位置が前記第1の所定値以下で、かつ前記監視対象者の水平方向の長さが第2の所定値以上のときに、前記監視対象者が前記ベッドから転落した状態であると判断する、請求項5記載の監視装置。
  7. 前記動作判断部は、前記監視対象者の水平方向の位置が前記第1の領域および前記第2の領域の両方を除く領域である第3の領域に含まれ、かつ前記監視対象者の鉛直方向の最も高い位置が第1の所定値以下の場合に、前記監視対象者が転倒状態であると判断する、請求項4記載の監視装置。
  8. 前記動作判断部は、前記監視対象者の水平方向の位置が前記第3の領域に含まれ、かつ前記監視対象者の鉛直方向の最も高い位置が前記第1の所定値を超える場合に、前記監視対象者が立位状態であると判断する、請求項7記載の監視装置。
  9. 監視領域の上方に設けられた第1の画像センサで前記監視領域を撮像することによって得られる上方撮像データと、前記監視領域の側方に設けられた第2の画像センサで前記監視領域を撮像することによって得られる側方撮像データに基づいて、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定する位置特定部と
    前記水平方向の位置と前記鉛直方向の最も高い位置に基づいて、前記監視対象者の転倒に関する動作状態を判断する動作判断部とを備え、
    前記位置特定部は、前記側方撮像データに基づいて、前記監視対象者の鉛直方向の最も低い位置を特定し、
    前記動作判断部は、前記監視対象者の鉛直方向の最も低い位置が第3の所定値以上の場合に、前記監視対象者がベッドが設置された領域に存在すると判断する監視装置。
  10. 監視領域の上方に設けられた第1の画像センサで前記監視領域を撮像することによって得られる上方撮像データと、前記監視領域の側方に設けられた第2の画像センサで前記監視領域を撮像することによって得られる側方撮像データに基づいて、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定する位置特定部と
    前記水平方向の位置と前記鉛直方向の最も高い位置に基づいて、前記監視対象者の転倒に関する動作状態を判断する動作判断部とを備え、
    前記位置特定部は、前記第1の画像センサで前記監視領域を撮像することによって得られる上方撮像データから、前記監視領域に存在する人の数を特定し、前記特定した人の数が1個の場合に限り、前記監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定する監視装置。
  11. 監視システムであって、
    監視領域の上方に設けられた第1の画像センサと、
    前記監視領域の側方に設けられた第2の画像センサと、
    前記第1の画像センサで前記監視領域を撮像することによって得られる上方撮像データと、前記第2の画像センサで前記監視領域を撮像することによって得られる側方撮像データに基づいて、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定する位置特定部とを備え、
    前記監視領域は、水平方向について、第1の領域と、前記第1の領域の周辺の領域である第2の領域と、前記第1の領域および前記第2の領域を除く第3の領域に分割され、
    前記監視システムは、さらに、
    前記水平方向の位置が前記第1の領域、前記第2の領域、および前記第3の領域のうちのいずれに含まれるかということと、前記鉛直方向の最も高い位置に基づいて、前記監視対象者の転倒に関する動作状態を判断する動作判断部とを備えた、監視システム。
  12. 監視方法であって、
    監視領域の上方に設けられた第1の画像センサで前記監視領域を撮像することによって得られる上方撮像データと、前記監視領域の側方に設けられた第2の画像センサで前記監視領域を撮像することによって得られる側方撮像データに基づいて、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定するステップを備え、
    前記監視領域は、水平方向について、第1の領域と、前記第1の領域の周辺の領域である第2の領域と、前記第1の領域および前記第2の領域を除く第3の領域に分割され、
    前記監視方法は、さらに、
    前記水平方向の位置が前記第1の領域、前記第2の領域、および前記第3の領域のうちのいずれに含まれるかということと、前記鉛直方向の最も高い位置に基づいて、前記監視対象者の転倒に関する動作状態を判断するステップ備えた監視方法。
  13. コンピュータを、
    監視領域の上方に設けられた第1の画像センサで前記監視領域を撮像することによって得られる上方撮像データと、前記監視領域の側方に設けられた第2の画像センサで前記監視領域を撮像することによって得られる側方撮像データに基づいて、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定する位置特定部として機能させ、
    前記監視領域は、水平方向について、第1の領域と、前記第1の領域の周辺の領域である第2の領域と、前記第1の領域および前記第2の領域を除く第3の領域に分割され、
    前記コンピュータをさらに、
    前記水平方向の位置が前記第1の領域、前記第2の領域、および前記第3の領域のうちのいずれに含まれるかということと、前記鉛直方向の最も高い位置に基づいて、前記監視対象者の転倒に関する動作を判断する動作判断部として機能させるための監視プログラム。
  14. コンピュータを、
    監視領域の上方に設けられた第1の画像センサで前記監視領域を撮像することによって得られる上方撮像データと、前記監視領域の側方に設けられた第2の画像センサで前記監視領域を撮像することによって得られる側方撮像データに基づいて、監視対象者の水平方向の位置と鉛直方向の最も高い位置を特定する位置特定部として機能させ
    前記監視領域は、水平方向について、第1の領域と、前記第1の領域の周辺の領域である第2の領域と、前記第1の領域および前記第2の領域を除く第3の領域に分割され、
    前記コンピュータをさらに、
    前記水平方向の位置が前記第1の領域、前記第2の領域、および前記第3の領域のうちのいずれに含まれるかということと、前記鉛直方向の最も高い位置に基づいて、前記監視対象者の転倒に関する動作状態を判断する動作判断部として機能させるための監視プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2014031444A 2014-02-21 2014-02-21 監視装置、監視システム、監視方法、監視プログラム、および監視プログラムを記録したコンピュータ読み取り可能な記録媒体 Active JP6417670B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014031444A JP6417670B2 (ja) 2014-02-21 2014-02-21 監視装置、監視システム、監視方法、監視プログラム、および監視プログラムを記録したコンピュータ読み取り可能な記録媒体
CN201580005315.8A CN106416237B (zh) 2014-02-21 2015-02-13 监视装置、监视***、监视方法
US15/114,034 US10674941B2 (en) 2014-02-21 2015-02-13 Monitoring device, monitoring system, monitoring method, monitoring program, and computer readable media with monitoring program recording thereon
PCT/JP2015/053928 WO2015125701A1 (ja) 2014-02-21 2015-02-13 監視システム
EP15752133.7A EP3110144B1 (en) 2014-02-21 2015-02-13 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014031444A JP6417670B2 (ja) 2014-02-21 2014-02-21 監視装置、監視システム、監視方法、監視プログラム、および監視プログラムを記録したコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JP2015156603A JP2015156603A (ja) 2015-08-27
JP6417670B2 true JP6417670B2 (ja) 2018-11-07

Family

ID=53878206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014031444A Active JP6417670B2 (ja) 2014-02-21 2014-02-21 監視装置、監視システム、監視方法、監視プログラム、および監視プログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (5)

Country Link
US (1) US10674941B2 (ja)
EP (1) EP3110144B1 (ja)
JP (1) JP6417670B2 (ja)
CN (1) CN106416237B (ja)
WO (1) WO2015125701A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180300538A1 (en) * 2015-06-10 2018-10-18 Konica Minolta, Inc. Image processing system, image processing apparatus, image processing method, and image processing program
US11182600B2 (en) * 2015-09-24 2021-11-23 International Business Machines Corporation Automatic selection of event video content
JP6804510B2 (ja) * 2016-02-15 2020-12-23 コニカミノルタ株式会社 検知システムおよび検知システムの表示方法
JP6922914B2 (ja) * 2016-08-08 2021-08-18 コニカミノルタ株式会社 見守りシステム、見守り装置、見守り方法、および見守りプログラム
BE1025269B9 (fr) * 2017-09-29 2019-01-09 KapCare SA Dispositif et methode pour detecter qu’une personne alitee quitte son lit ou a chute.
US10599947B2 (en) 2018-03-09 2020-03-24 Ricoh Co., Ltd. On-demand visual analysis focalized on salient events
JP2024518262A (ja) * 2021-04-08 2024-05-01 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー ゲスト測定システム及び方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000253382A (ja) * 1999-02-25 2000-09-14 Matsushita Electric Works Ltd 転倒検知装置
JP2000285223A (ja) 1999-03-30 2000-10-13 Matsushita Electric Works Ltd 転倒検知装置
JP2001307246A (ja) * 2000-04-20 2001-11-02 Matsushita Electric Works Ltd 人体検知装置
JP5027359B2 (ja) * 2001-06-14 2012-09-19 パナソニック株式会社 人体検知装置
JP3939224B2 (ja) * 2002-08-30 2007-07-04 住友大阪セメント株式会社 領域監視装置
US20080021731A1 (en) 2005-12-09 2008-01-24 Valence Broadband, Inc. Methods and systems for monitoring patient support exiting and initiating response
US20090044334A1 (en) 2007-08-13 2009-02-19 Valence Broadband, Inc. Automatically adjusting patient platform support height in response to patient related events
JP5648840B2 (ja) * 2009-09-17 2015-01-07 清水建設株式会社 ベッド上及び室内の見守りシステム
JP5771778B2 (ja) * 2010-06-30 2015-09-02 パナソニックIpマネジメント株式会社 監視装置、プログラム
EP2619724A2 (en) * 2010-09-23 2013-07-31 Stryker Corporation Video monitoring system
CN103221984B (zh) * 2010-11-19 2016-10-05 株式会社尼康 引导装置、检测装置以及姿势状态判定装置
US9538158B1 (en) * 2012-10-16 2017-01-03 Ocuvera LLC Medical environment monitoring system

Also Published As

Publication number Publication date
EP3110144A1 (en) 2016-12-28
CN106416237A (zh) 2017-02-15
US10674941B2 (en) 2020-06-09
EP3110144A4 (en) 2017-08-09
JP2015156603A (ja) 2015-08-27
WO2015125701A1 (ja) 2015-08-27
CN106416237B (zh) 2019-03-29
US20170215770A1 (en) 2017-08-03
EP3110144B1 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
JP6417670B2 (ja) 監視装置、監視システム、監視方法、監視プログラム、および監視プログラムを記録したコンピュータ読み取り可能な記録媒体
JP6115335B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6137425B2 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP6717235B2 (ja) 見守り支援システム及びその制御方法
WO2016143641A1 (ja) 姿勢検知装置および姿勢検知方法
JP6297822B2 (ja) 検知装置、検知システム及び検知方法
JP6500785B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US10198813B2 (en) Posture estimation device, posture estimation system, posture estimation method, posture estimation program, and computer-readable recording medium on which posture estimation program is recorded
JP6708980B2 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP6292283B2 (ja) 行動検知装置および行動検知方法ならびに被監視者監視装置
US10509967B2 (en) Occupancy detection
JP6870514B2 (ja) 見守り支援システム及びその制御方法
JP6000762B2 (ja) 画像監視装置
EP3499477A1 (en) Watch-over system, watch-over device, watch-over method, and watch-over program
JP7500929B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7351339B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2007274654A (ja) 映像監視装置及び方法
JP2015130014A (ja) 検知装置、検知システム、検知方法およびプログラム
JP2020036164A (ja) 画像処理装置
JP2015175633A (ja) 立体抽出方法および立体抽出装置
JP2019204366A (ja) 行動監視装置及び行動監視方法
JP6729512B2 (ja) 見守り支援システム及びその制御方法
JP2015224879A (ja) 検出装置及び方法、コンピュータプログラム並びに記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180924

R150 Certificate of patent or registration of utility model

Ref document number: 6417670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150