JP2019144997A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2019144997A
JP2019144997A JP2018030656A JP2018030656A JP2019144997A JP 2019144997 A JP2019144997 A JP 2019144997A JP 2018030656 A JP2018030656 A JP 2018030656A JP 2018030656 A JP2018030656 A JP 2018030656A JP 2019144997 A JP2019144997 A JP 2019144997A
Authority
JP
Japan
Prior art keywords
person
head
distance image
torso
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018030656A
Other languages
English (en)
Other versions
JP2019144997A5 (ja
JP7033305B2 (ja
Inventor
安川 徹
Toru Yasukawa
徹 安川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AI Viewlife Co Ltd
Original Assignee
AI Viewlife Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AI Viewlife Co Ltd filed Critical AI Viewlife Co Ltd
Priority to JP2018030656A priority Critical patent/JP7033305B2/ja
Priority to PCT/JP2019/004592 priority patent/WO2019163561A1/ja
Publication of JP2019144997A publication Critical patent/JP2019144997A/ja
Publication of JP2019144997A5 publication Critical patent/JP2019144997A5/ja
Application granted granted Critical
Publication of JP7033305B2 publication Critical patent/JP7033305B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Image Analysis (AREA)
  • Invalid Beds And Related Equipment (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】ベッド上の人物の状態をより正確に検出することができる情報処理装置を提供する。【解決手段】情報処理装置は、寝床を含む所定箇所の距離画像を取得する距離画像取得手段と、距離画像に基づいて、当該距離画像内の人物の頭部と胴体部との対を検出する検出手段と、検出した頭部と胴体部との対の移動状況に応じて、頭部と胴体部との対が人物であることを判定する判定手段と、を備える。また、判定手段は、人物と判定した対となる頭部と胴体部との位置関係に応じて、人物の姿勢を判定する。【選択図】図2

Description

本発明は、情報処理装置及び情報処理方法に関する。
近年、高齢者の人口が増加し、介護の需要が高まっている。一方で、介護には、多くの介護者が必要となり、介護者の作業負担や人件費の増加という問題が生じる。そこで、特許文献1に記載のような、距離画像センサで撮影した画像を用いて、被介護者といった人物を監視する監視システムが多く開発されている。
特許文献1に開示の監視システムでは、距離画像からベッドの位置を抽出し、また、人の領域を検出し、人の動作を判別している。具体的に、ベッドの位置は、ベッドの長手方向及び短手方向における高さの度数分布から求めている。また、人の動作は、所定の高さ位置に対する物体の位置検出することで、臥床の状態、上半身を起こした状態、起立の状態、といった人の動作を判別している。
特開2012−030042号公報
しかしながら、上述した特許文献1の技術では、被介護者である人物の動作や姿勢といった状態をより正確に検出することができない、という問題が生じる。その理由は、特許文献1のシステムでは、人物を1つの物体としか見ておらず、その物体の高さ位置に応じて動作を検出しているだけである。このため、ベッド上に掛け布団や枕などの他の物体が存在する場合には、人物をより正確に検出することができず、さらには、その姿勢も正確に検出することができない。
このため、本発明の目的は、上述した課題である、ベッド上の人物の状態をより正確に検出できない、ということを解決することができる情報処理装置を提供することにある。
本発明の一形態である情報処理装置は、
寝床を含む所定箇所の距離画像を取得する距離画像取得手段と、
前記距離画像に基づいて、当該距離画像内の人物の頭部と胴体部との対を検出する検出手段と、
検出した前記頭部と前記胴体部との対の移動状況に応じて、前記頭部と前記胴体部との対が人物であることを判定する判定手段と、
を備えた、
という構成をとる。
また、上記情報処理装置では、
前記判定手段は、人物と判定した対となる前記頭部と前記胴体部との位置関係に応じて、人物の姿勢を判定する、
という構成をとる。
また、上記情報処理装置では、
前記判定手段は、人物と判定した対となる前記頭部と前記胴体部との位置関係と、当該対となる前記頭部及び前記胴体部と前記寝床との位置関係と、に応じて、人物の姿勢を検出する、
という構成をとる。
また、上記情報処理装置では、
前記判定手段は、人物と判定した対となる前記頭部と前記胴体部との位置関係と、当該対となる前記頭部及び前記胴体部と前記寝床の周囲との位置関係と、に応じて、人物の姿勢を検出する、
という構成をとる。
また、上記情報処理装置では、
前記判定手段は、人物と判定した対となる前記頭部と前記胴体部との位置関係と、当該対となる前記頭部及び前記胴体部と前記寝床の高さとの位置関係と、に応じて、人物の姿勢を検出する、
という構成をとる。
また、本発明の他の形態である情報処理方法は、
寝床を含む所定箇所の距離画像を取得する距離画像取得工程と、
前記距離画像に基づいて、当該距離画像内の人物の頭部と胴体部との対を検出する検出工程と、
検出した前記頭部と前記胴体部との対の移動状況に応じて、前記頭部と前記胴体部との対が人物であることを判定する判定工程と、
を有する、
という構成をとる。
また、上記情報処理方法では、
前記判定工程は、人物と判定した対となる前記頭部と前記胴体部との位置関係に応じて、人物の姿勢を判定する、
という構成をとる。
また、本発明の他の形態であるプログラムは、
情報処理装置に、
寝床を含む所定箇所の距離画像を取得する距離画像取得手段と、
前記距離画像に基づいて、当該距離画像内の人物の頭部と胴体部との対を検出する検出手段と、
検出した前記頭部と前記胴体部との対の移動状況に応じて、前記頭部と前記胴体部との対が人物であることを判定する判定手段と、
を実現させる、
という構成をとる。
本発明は、以上のように構成されることにより、ベッド上の人物の状態をより正確に検出することができる、情報処理装置、情報処理方法、プログラムを提供することができる。
本発明の実施形態1における情報処理システムの構成を示す概略図である。 図1に開示した監視サーバの構成を示すブロック図である。 図1に開示した監視サーバによる画像処理の様子を示す図である。 図1に開示した監視サーバによる画像処理の様子を示す図である。 図1に開示した監視サーバによる画像処理の様子を示す図である。 図1に開示した監視の処理動作を示すフローチャートである。
<実施形態1>
本発明の第1の実施形態を、図1乃至図6を参照して説明する。図1乃至図2は、情報処理システムの構成を示す図である。図3乃至図6は、情報処理システムの処理動作を説明するための図である。以下、各図を参照して、情報処理システムの構成及び動作を説明する。
本発明における情報処理システムは、被介護者や被監視者といった監視対象となる人物Pの行動を監視するための情報処理システムであり、監視サーバ10と、距離画像カメラCと、携帯端末20と、監視端末30と、を備えて構成されている。
上記距離画像カメラCは、監視対象となる人物Pが横たわるベッドBが配置された領域R内の距離画像を撮影可能な位置に配置されている。例えば、距離画像カメラCは、医療施設や介護施設、宅内の一室の天井に設けられ、ベッドB全体が画像内に収まる位置に配置されている。なお、距離画像カメラCは、必ずしも天井に設置されていることに限定されず、壁やスタンドなど、いかなる場所に設置されていてもよい。また、撮影されるベッドBは、布団といった他の寝床であってもよい。
距離画像カメラCは、画素値を距離値とした距離画像を撮影するものである。例えば、距離画像カメラCは、赤外線レーザをターゲットに投射した際の往復の時間から距離を計測する形式のものであってもよく、いかなる方式のものであってもよい。そして、距離画像カメラCは、一定の時間間隔で、あるいは、撮影指示を受けたタイミングで、距離画像を撮影し、かかる距離画像を後述する監視サーバ10に送信する機能を有する。
上記携帯端末20は、被介護者である人物の介護を行ったり、監視する監視者であるユーザUが保持して操作するスマートフォンなどの情報処理端末である。携帯端末20は、監視サーバ10と無線通信を介して接続され通信可能であり、後述するように、監視サーバ10に対してユーザUの操作指示を入力することが可能である。例えば、携帯端末20は、表示画面に、距離画像カメラCにて撮影された距離画像を表示すると共に、監視に関する操作指示を入力可能な操作画面を表示する。かかる画面に対してユーザUからタッチ操作によって指示が入力されることで、かかる操作指示が携帯端末20から監視サーバ10に送信されることとなる。また、携帯端末20は、監視サーバ10から発せられる被介護者である人物の異常の通知を受信して、ユーザUに報知する機能も有する。
上記監視端末30は、被介護者である人物の介護を行ったり、監視する監視者であるユーザUが操作する情報処理端末である。監視端末30は、監視者などのユーザUが在籍する監視ルームなどの場所に設置されており、複数のユーザUによって操作可能である。監視端末30は、上述した携帯端末20と同様に、表示画面に距離画像を表示すると共に、監視に関する操作指示を入力可能とし、かかる操作指示を監視サーバ10に送信したり、監視サーバ10から発せられる人物の異常の通知を受信して、ユーザUに報知する機能を有する。
上記監視サーバ10は、演算装置及び記憶装置を有するサーバ装置(情報処理装置)である。そして、監視サーバ10は、図2に示すように、演算装置がプログラムを実行することで構築された、距離画像取得部11、領域特定部12、人物検出部13、判定部14、通知部15、を備えている。また、監視サーバ10は、記憶装置に形成された、判定基準記憶部16を備えている。以下、各構成について詳述する。なお、以下では、監視サーバ10に動作も、図7のフローチャートを参照して併せて説明する。
上記距離画像取得部11(距離画像取得手段)は、上述したように距離画像カメラCにて撮影されたベッドB及び監視対象となる人物Pを含む距離画像を、当該距離画像カメラCから取得する。そして、取得した距離画像を、領域特定部12、人物検出部13、判定部14に渡し、当該距離画像は後述するベッド領域設定処理や監視処理に用いられる。
上記領域特定部12は、距離画像内におけるベッドBの領域を特定する処理を行う(図6のステップS1)。このとき、領域特定部12は、ユーザUから携帯端末20を介して監視サーバ10に送信されたベッド領域を設定する処理を行う指令を受け付けると、図3(a1)に示すように、人物Pが存在していないベッドBが映っている距離画像21を利用して、当該距離画像21上におけるベッドBの領域を特定する処理を行う。
例えば、領域特定部12は、距離画像21に対してユーザUからベッドBの4隅を指定する入力を受け付け、かかる4隅の座標からベッドBの領域を特定してもよい。あるいは、領域特定部12は、距離画像21上の予め設定された位置の略矩形の物体を検出してベッドBの領域として特定してもよく、距離画像21の予め設定された座標領域をベッドBの領域として特定してもよい。なお、領域特定部12は、いかなる方法でベッドBの領域を特定してもよい。
また、領域特定部12は、ベッドBの領域と共に、距離画像21からベッドBの高さも特定する。但し、ベッドBの高さは、ユーザUにて入力された値を用いてもよく、予め設定された値を用いてもよい。
上記人物検出部13(検出手段)は、距離画像21内における人物Pを検出する処理を行う。このとき、人物検出部13は、まず、距離画像21内に存在する物体を検出し、かかる物体から人物Pの頭部P1及び胴体部P2の対を検出する(図6のステップS2)。
具体的に、人物検出部13は、まず、距離画像21内における個々の塊からなる物体を検出する。そして、検出した物体の形状(例えば、アスペクト比)や、物体間の位置関係や体積比(面積比)などから、同一人物の頭部P1と胴体部P2との対を検出する。例えば、図3(b1)の例では、距離画像21内においてベッドB上に人物Pが横たわっている場合を示している。なお、図3(b2)は、ベッドBを長辺側の横方向から見た図を示している。かかる状況において、塊を形成する符号P1と符号P2に示す物体が検出された場合には、符号P1,P2の物体の形状がそれぞれ矩形でアスペクト比が設定された値の範囲内であるか、これら物体が連結して相互に一定の距離の範囲内に位置するか、さらに、物体間の体積比が設定された範囲内であるか、を調べる。そして、これらを満たす場合に、符号P1及び符号P2の物体の対が、同一人物Pの頭部P1及び胴体部P2の対である、として検出する。
但し、人物検出部13は、距離画像21からいかなる方法で人物Pの頭部P1及び胴体部P2の対を検出してもよい。また、人物検出部13は、別途設けられた基準に基づいて、人物Pの脚部や腕部など他の部位を検出した場合には、かかる部位も同一人物Pの頭部P1及び胴体部P2の対に関連付けてもよい。そして、これら他の部位に基づいて、後述する人物の姿勢の判定を行ってもよい。
上記判定部14(判定手段)は、人物検出部13から、検出された人物Pの頭部P1及び胴体部P2の対の通知を受け、順次取得される距離画像21内において人物Pの頭部P1及び胴体部P2の対の追従を行う。例えば、判定部14は、時間的に連続する距離画像21において、先の距離画像21上に位置する頭部P1及び胴体部P2の対の位置に対して、後の距離画像21上の近隣の位置に対となる物体が存在する場合には、かかる物体の対を同一人物Pの頭部P1及び胴体部P2の対と判定して追従を行う。なお、判定部14は、ある距離画像21において追従していた人物Pの頭部P1及び胴体部P2の対を検出できない場合であっても、かかる人物Pのこれまでの追従軌跡から移動先を予測し、後の距離画像21上でそれらしき頭部P1及び胴体部P2の対が再度出現した場合に、同一人物Pとして追従を再開してもよい。但し、判定部14による人物Pの頭部P1及び胴体部P2の対の追従方法は、上述した方法に限定されず、いかなる方法で行われてもよい。
そして、判定部14は、上述した人物Pの頭部P1及び胴体部P2の対を追従した結果である当該対の移動状況に基づいて、当該人物Pの頭部P1及び胴体部P2の対が、物体ではなく、確かに人物のものであるかを判定する(図6のステップS3)。例えば、上述した人物Pの頭部P1及び胴体部P2の対が、一定時間、所定の距離範囲に位置して対を維持した状態で移動している場合には、かかる対を人物Pのものであると判定する(図6のステップS3:Yes)。なお、判定部14による人物Pの頭部P1及び胴体部P2の対が確かに人物のものであるか否かの判定は、追従結果に基づいていかなる方法で行われてもよい。
続いて、判定部14は、さらに人物Pの頭部P1及び胴体部P2の対の追従を継続し、当該対となる頭部P1と胴体部P2との位置関係から、人物Pの姿勢を判定する(図6のステップS4)。このとき、判定部14は、頭部P1と胴体部P2との位置関係に加え、頭部P1及び胴体部P2の対と距離画像21内のベッドBとの位置関係にも基づいて、人物Pの姿勢を判定する。
ここで、判定部14は、例えば、距離画像21上における頭部P1や胴体部P2のそれぞれの重心位置や所定基準に基づく中心位置、さらには上方の頂点位置を検出し、かかる重心位置や中心位置、頂点位置を、人物Pの頭部P1や胴体部P2の位置として用いる。以下では、説明を巻単位するために、人物の頭部P1や胴体部P2の位置として、それらの重心位置、を用いることとする。なお、上述した人物Pの頭部P1及び胴体部P2の対が、人物のものであるか否かの判定の際にも、頭部P1や胴体部P2の位置として、重心位置を用いてもよい。
そして、判定部14は、特に、人物が予め異常状態と設定された姿勢であるか否かを判定する。なお、異常状態を表す情報は、頭部P1と胴体部P2との位置関係を表す情報や、頭部P1及び胴体部P2の位置とベッドBの位置(領域や高さ)との関係を表す情報、などからなり、予め判定基準記憶部16に記憶されている。本実施形態では、異常状態として、例えば、図4(a1),(a2)に示す人物PがベッドBの境界に位置する場合(境界位)、図4(b1),(b2)に示す人物PがベッドBに立つ場合(立位)、図5(a1),(a2)に示す人物PがベッドB上で起き上がろうとしている場合(起き上がり)、図5(b1),(b2)に示す人物PがベッドBから離れた場合(離床)、がある。但し、本発明で判定する異常状態は、上述した姿勢に限定されず、他の姿勢を異常状態として判定してもよい。
ここで、判定部14による異常状態の判定処理の一例を、図4乃至図5を参照して説明する。まず、図4(a1),(a2)の例では、人物PがベッドBの境界に位置する場合(境界位)を示している。このとき、人物Pの頭部P1及び胴体部P2の対はベッドBの境界付近に位置することとなる。このため、判定部14は、距離画像21において追従した頭部P1及び胴体部P2の対の位置が、ベッドBの領域の周囲から予め設定された距離以内に位置する場合には、人物Pの姿勢が境界位であると判定する。
また、図4(b1),(b2)の例では、人物PがベッドBに立つ場合(立位)を示している。このとき、人物Pの頭部P1及び胴体部P2の対は、ベッドBの上方に積み重なる状態となり、胴体部P2の位置がベッドBの高さ位置よりも高く位置し、頭部P1の位置がさらに高く位置することとなる。このため、判定部14は、距離画像21において追従した頭部P1及び胴体部P2の対が、ベッドBの上方に積み重なる位置関係となり、頭部P1及び胴体部P2の位置が、それぞれベッドBの高さ位置よりも高く設定された位置を超えている場合に、人物Pの姿勢が立位であると判定する。
また、図5(a1),(a2)の例では、人物Pが起き上がろうとしている場合(起き上がり)を示している。このとき、人物Pの頭部P1及び胴体部P2の対は、胴体部P2及び頭部P1がベッドBの高さ位置からやや上方に位置している状態となる。このため、判定部14は、距離画像21において追従した頭部P1及び胴体部P2の対が、ベッドBの平面上で連結した位置関係となり、頭部P1及び胴体部P2の高さ位置が、それぞれベッドBの高さ位置よりもやや高く設定された位置を超えている場合に、人物Pの姿勢が起き上がり状態であると判定する。なお、このときは、上述した起き上がりの状態が所定時間続いた場合に、はじめて起き上がり状態であると判定してもよい。
また、図5(b1),(b2)の例では、人物PがベッドBから離れた場合(離床)を示している。このとき、人物Pの頭部P1及び胴体部P2の対は、ベッドBの領域から離れて位置する状態となる。このため、判定部14は、距離画像21において追従した頭部P1及び胴体部P2の対が、ベッドBの領域の周囲から予め設定された距離以上離れた場合に、人物Pの姿勢が離床であると判定する。
そして、判定部14は、上述したように距離画像21から人物P1の姿勢を異常状態と判定すると(図6のステップS5:Yes)、ユーザUに対して通知を行う(図6のステップS6)。
以上のように、本発明の情報処理システムでは、距離画像から人物の頭部と胴体部とを検出して、当該頭部と胴体部との位置関係や、ベッドとの位置関係から、人物であることやその姿勢を検出している。このため、人物以外の物体の誤認識を抑制でき、また、人物の姿勢をより正確に判定することができる。
なお、本発明の情報処理システムでは、上述したようにベッド上あるいはベッドの周囲において人物の姿勢を判定することに限定されず、あらゆる領域内で人物の姿勢を検出してもよい。例えば、ベッド外の位置における人物の横たわり(臥位)やうずくまり(うつ伏せ)などの姿勢を判定してよい。具体的には、人物Pの頭部P1及び胴体部P2の対が、ベッドBの範囲外に位置しており、頭部P1及び胴体部P2の高さ位置がほぼ同一である状態が所定時間続いた場合に横たわりと判定したり、頭部P1及び胴体部P2の高さ位置が近い状態が所定時間続いた場合にうずくまりと判定してもよい。なお、ベッド外において判定する姿勢は、上述した姿勢に限定されない。
また、上記では、人物Pの頭部P1及び胴体部P2の対を検出して、姿勢を判定しているが、明確に頭部P1及び胴体部P2を検出できなくとも、以下のようにして、姿勢を判定してもよい。例えば、人物Pらきし物体を検出した場合に、物体の最頂部(最頂領域)の重心と、物体全体の重心と、を検出し、各重心の位置関係から、人物Pの姿勢を判定する。一例としては、物体の最頂部の重心と、物体全体の重心と、の平面方向における距離から、人物Pの姿勢を判定する。
具体的には、まず、一般的な人物の座位の姿勢における、最頂部の重心と、物体全体の重心と、の平面方向における距離を基準値として設定する。座位の場合、最頂部の重心と物体全体の重心とは、平面方向において少しずれた位置関係、つまり、所定の距離だけ離れた位置関係となり、基準値としては、所定の距離が設定される。そして、最頂部の重心と物体全体の重心とが平面方向において一致した場合には、立位の姿勢であると判定する。また、最頂部の重心と物体全体の重心との平面方向における距離が、上記基準値よりも小さい場合には、うずくまりの姿勢であると判定する。また、最頂部の重心と物体全体の重心との平面方向における距離が、上記基準値よりも大きい場合には、横たわりの姿勢であると判定する。また、最頂部の重心と物体全体の重心との平面方向における距離が、上記基準値と一致する場合には、座位の姿勢であると判定する。なお、判定する姿勢は、上述した姿勢に限定されない。
ここで、上述した姿勢の判定に用いる物体の最頂部の重心は、人物の頭部と推定することができ、また、物体全体の重心は、人物の胴体部と推定することができる。従って、このような方法であっても、距離画像から人物の頭部と胴体部とを検出して、人物の姿勢を判定することができる。
なお、上述したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。
以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。
10 監視サーバ
11 距離画像取得部
12 領域特定部
13 人物検出部
14 判定部
15 通知部
16 判定基準記憶部
20 携帯端末
21 距離画像
30 監視端末
B ベッド
C 距離画像カメラ
P 人物
P1 頭部
P2 胴体部
U ユーザ

Claims (8)

  1. 寝床を含む所定箇所の距離画像を取得する距離画像取得手段と、
    前記距離画像に基づいて、当該距離画像内の人物の頭部と胴体部との対を検出する検出手段と、
    検出した前記頭部と前記胴体部との対の移動状況に応じて、前記頭部と前記胴体部との対が人物であることを判定する判定手段と、
    を備えた情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記判定手段は、人物と判定した対となる前記頭部と前記胴体部との位置関係に応じて、人物の姿勢を判定する、
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記判定手段は、人物と判定した対となる前記頭部と前記胴体部との位置関係と、当該対となる前記頭部及び前記胴体部と前記寝床との位置関係と、に応じて、人物の姿勢を検出する、
    情報処理装置。
  4. 請求項3に記載の情報処理装置であって、
    前記判定手段は、人物と判定した対となる前記頭部と前記胴体部との位置関係と、当該対となる前記頭部及び前記胴体部と前記寝床の周囲との位置関係と、に応じて、人物の姿勢を検出する、
    情報処理装置。
  5. 請求項3又は4に記載の情報処理装置であって、
    前記判定手段は、人物と判定した対となる前記頭部と前記胴体部との位置関係と、当該対となる前記頭部及び前記胴体部と前記寝床の高さとの位置関係と、に応じて、人物の姿勢を検出する、
    情報処理装置。
  6. 寝床を含む所定箇所の距離画像を取得する距離画像取得工程と、
    前記距離画像に基づいて、当該距離画像内の人物の頭部と胴体部との対を検出する検出工程と、
    検出した前記頭部と前記胴体部との対の移動状況に応じて、前記頭部と前記胴体部との対が人物であることを判定する判定工程と、
    を有する情報処理方法。
  7. 請求項6に記載の情報処理方法であって、
    前記判定工程は、人物と判定した対となる前記頭部と前記胴体部との位置関係に応じて、人物の姿勢を判定する、
    情報処理方法。
  8. 情報処理装置に、
    寝床を含む所定箇所の距離画像を取得する距離画像取得手段と、
    前記距離画像に基づいて、当該距離画像内の人物の頭部と胴体部との対を検出する検出手段と、
    検出した前記頭部と前記胴体部との対の移動状況に応じて、前記頭部と前記胴体部との対が人物であることを判定する判定手段と、
    を実現させるためのプログラム。
JP2018030656A 2018-02-23 2018-02-23 情報処理装置 Active JP7033305B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018030656A JP7033305B2 (ja) 2018-02-23 2018-02-23 情報処理装置
PCT/JP2019/004592 WO2019163561A1 (ja) 2018-02-23 2019-02-08 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018030656A JP7033305B2 (ja) 2018-02-23 2018-02-23 情報処理装置

Publications (3)

Publication Number Publication Date
JP2019144997A true JP2019144997A (ja) 2019-08-29
JP2019144997A5 JP2019144997A5 (ja) 2021-02-12
JP7033305B2 JP7033305B2 (ja) 2022-03-10

Family

ID=67688342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018030656A Active JP7033305B2 (ja) 2018-02-23 2018-02-23 情報処理装置

Country Status (2)

Country Link
JP (1) JP7033305B2 (ja)
WO (1) WO2019163561A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006254321A (ja) * 2005-03-14 2006-09-21 Matsushita Electric Ind Co Ltd 人物追尾装置及び人物追尾プログラム
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2014236896A (ja) * 2013-06-10 2014-12-18 Nkワークス株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2015133159A1 (ja) * 2014-03-05 2015-09-11 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
WO2016194402A1 (ja) * 2015-05-29 2016-12-08 ノ-リツプレシジョン株式会社 画像解析装置、画像解析方法、及び、画像解析プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006254321A (ja) * 2005-03-14 2006-09-21 Matsushita Electric Ind Co Ltd 人物追尾装置及び人物追尾プログラム
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2014236896A (ja) * 2013-06-10 2014-12-18 Nkワークス株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2015133159A1 (ja) * 2014-03-05 2015-09-11 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
WO2016194402A1 (ja) * 2015-05-29 2016-12-08 ノ-リツプレシジョン株式会社 画像解析装置、画像解析方法、及び、画像解析プログラム

Also Published As

Publication number Publication date
WO2019163561A1 (ja) 2019-08-29
JP7033305B2 (ja) 2022-03-10

Similar Documents

Publication Publication Date Title
JP7138931B2 (ja) 姿勢解析装置、姿勢解析方法、及びプログラム
KR101999934B1 (ko) 표시 제어 장치, 표시 제어 시스템, 표시 제어 방법, 표시 제어 프로그램, 기록 매체
CN111212220B (zh) 保存有图像处理程序的记录介质以及图像处理装置
WO2015133195A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6086468B2 (ja) 被写体見守りシステム
JP2022165483A (ja) 検出装置、検出システム、検出方法、および検出プログラム
WO2016199495A1 (ja) 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
JP2020194493A (ja) 介護設備又は病院用の監視システム及び監視方法
WO2019240196A1 (ja) 情報処理装置
JP7347577B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2015213537A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2019163561A1 (ja) 情報処理装置
JP7500929B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7095870B2 (ja) 情報処理装置
JP7232497B2 (ja) 情報処理装置
JP7351339B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
TWM625774U (zh) 基於深度影像的被照護者行為分析的照護檢測系統
JP7039011B2 (ja) 情報処理装置
JP2022126070A (ja) 画像処理方法
JP2022126071A (ja) 画像処理方法
JP2022126069A (ja) 画像処理方法
JP7090328B2 (ja) 情報処理装置
WO2020021897A1 (ja) 情報処理装置
JP7435609B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
WO2020145145A1 (ja) 情報処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220218

R150 Certificate of patent or registration of utility model

Ref document number: 7033305

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150