JP7198196B2 - 計測装置及び計測方法 - Google Patents

計測装置及び計測方法 Download PDF

Info

Publication number
JP7198196B2
JP7198196B2 JP2019236325A JP2019236325A JP7198196B2 JP 7198196 B2 JP7198196 B2 JP 7198196B2 JP 2019236325 A JP2019236325 A JP 2019236325A JP 2019236325 A JP2019236325 A JP 2019236325A JP 7198196 B2 JP7198196 B2 JP 7198196B2
Authority
JP
Japan
Prior art keywords
time
spatio
temporal
person
measurement data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019236325A
Other languages
English (en)
Other versions
JP2021104160A (ja
Inventor
弘充 中川
毅 田中
大輔 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Tech Corp filed Critical Hitachi High Tech Corp
Priority to JP2019236325A priority Critical patent/JP7198196B2/ja
Priority to EP20905149.9A priority patent/EP4083568A4/en
Priority to PCT/JP2020/032451 priority patent/WO2021131159A1/ja
Priority to CN202080056914.3A priority patent/CN114222529B/zh
Priority to US17/642,903 priority patent/US20220366560A1/en
Publication of JP2021104160A publication Critical patent/JP2021104160A/ja
Application granted granted Critical
Publication of JP7198196B2 publication Critical patent/JP7198196B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、データの計測に関する。
近年、超高齢化社会の未来を見据えた国民の健康意識の高まりを受け、ヘルスケア業界が着目されている。それに伴い、医療現場におけるIT(Information Technology)技術活用も着実に進歩しており、再生医療機器、介護ロボット、保険指導サービス支援など、新たな事業分野や医療サービスが次々と開拓されている。
なかでも予防医療サービスは、高齢化医療を見据えて期待が大きい分野の一つである。予防医療とは、病気になってから治療を行うという考え方ではなく、誰にでも将来起こりうる健康リスクを明確化し、病気にならないように継続的に健康維持、増進行動を行っていくという考え方である。
これら健康リスクを明確化したり、健康維持、増進行動の効果を確認したりするためには、計測による継続的な健康状態の定量化が必要となる。IoT(Internet of Things)技術やウェアラブルデバイスの進展により、定量化に向けては、各ユーザが日常生活の中で計測を行うことができるようになってきた。
一方で、日常生活の中で大量に取得した計測データにはノイズが含まれることが多く、解析対象の選定が難しくなるという問題がある。例えば、公共の場で撮影した映像を解析する場合、どのデータを解析対象とするか画一的に判断することが難しくなる。
特許文献1によれば、ノイズの少ないデータを得るために歩行時の動きが小さい腰部の測定を行うことが開示されている。これにより、計測ノイズの発生を減らすことができる。
特許文献2によれば、追従ポイントが飛ぶ現象が生じるなど急激な変化が生じた場合をノイズとして除去することが開示されている。これにより、計測ノイズを除くことができる。
特開2017-202236号公報 特開2016-179171号公報
特許文献1の技術では、計測誤差のノイズを軽減できるが解析部位が限定されてしまうという問題がある。
特許文献2の技術では、計測誤差のノイズ除去には有効だが映り込みのノイズにはあまり有効でないという問題がある。
よって、計測誤差及び映り込みのノイズが多い環境下でも、解析手法に影響を与えることなく必要な計測データを抽出することが課題となる。
上記の課題の少なくとも一つを解決するために、本発明は、プロセッサと、記憶部と、を有する計測装置であって、前記記憶部は、撮影装置によって取得された時刻ごとの計測データと、時空間の制約と、を保持し、前記プロセッサは、前記時刻ごとの計測データから物体の位置を抽出し、前記物体が前記時空間の制約を満たすかを判定し、前記物体が前記時空間の制約を満たすかの判定の結果に基づいて、前記物体が解析対象かを判定し、前記物体は人物であり、前記プロセッサは、前記人物の1以上の関節の位置を前記物体の位置として抽出し、前記計測データから抽出された、前記解析対象であると判定された人物の前記1以上の関節の位置を、解析対象のデータとして出力することを特徴とする。
本発明の一態様によれば、計測誤差及び映り込みのノイズが多い環境下でも、解析手法に影響を与えることなく必要な計測データを抽出することが可能となる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
実施例1に係るシステム全体の物理構成を示す。 実施例1に係るシステム全体の論理構成を示す。 実施例1に係る計測DBに格納されるテーブルの構成を示す。 実施例1に係る判定DBに格納されるテーブルの構成を示す。 実施例1に係る解析DBに格納されるテーブルの構成を示す。 実施例1に係る深度記録部の処理を示すフローチャートである。 実施例1に係る骨格座標推定部の処理を示すフローチャートである。 実施例1に係る時間判定部の処理を示すフローチャートである。 実施例1に係る空間判定部の処理を示すフローチャートである。 実施例1に係る解析対象抽出部の処理を示すフローチャートである。 実施例2に係るシステム全体の論理構成を示す。 実施例2に係る判定DBに格納されるテーブルの構成を示す。 実施例2に係るピッチ抽出部の処理を示すフローチャートである。 実施例2に係る時空間判定部の処理を示すフローチャートである。 実施例2に係る解析対象抽出部の処理を示すフローチャートである。 実施例2に係るU/I制御部の処理を示すフローチャートである。 実施例2において表示される制約設定画面を示す。
以下、図面を参照して、本発明の幾つかの実施例を説明する。但し、それらの実施例は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではない。
以下の説明では、「インターフェース部」は、1以上のインターフェース装置である。1以上のインターフェースは、1以上の同種のインターフェース装置(例えば1以上のNIC(Network Interface Card))であってもよいし2以上の異種のインターフェース装置(例えばNICとHBA(Host Bus Adapter))であってもよい。
また、以下の説明では、「記憶部」は、1以上のメモリである。少なくとも1つのメモリは、揮発性メモリであってもよいし不揮発性メモリであってもよい。記憶部は、1以上のメモリに加えて、1以上のPDEVを含んでもよい。「PDEV」は、物理的な記憶装置を意味し、典型的には、不揮発性の記憶装置(例えば補助記憶装置)でよい。PDEVは、例えば、HDD(Hard Disk Drive)またはSSD(Solid State Drive)でよい。
また、以下の説明では、「プロセッサ部」は、1以上のプロセッサである。少なくとも1つのプロセッサは、典型的には、CPU(Central Processing Unit)である。プロセッサは、処理の一部または全部を行うハードウェア回路を含んでもよい。
また、以下の説明では、「kkk部」(インターフェース部、記憶部およびプロセッサ部を除く)の表現にて機能を説明することがあるが、機能は、1以上のコンピュータプログラムがプロセッサ部によって実行されることで実現されてもよいし、1以上のハードウェア回路(例えばFPGA(Field-Programmable Gate Array)またはASIC(Application Specific Integrated Circuit))によって実現されてもよい。プログラムがプロセッサ部によって実行されることで機能が実現される場合、定められた処理が、適宜に記憶部および/またはインターフェース部等を用いながら行われるため、機能はプロセッサ部の少なくとも一部とされてもよい。機能を主語として説明された処理は、プロセッサ部あるいはそのプロセッサ部を有する装置が行う処理としてもよい。プログラムは、プログラムソースからインストールされてもよい。プログラムソースは、例えば、プログラム配布計算機または計算機が読み取り可能な記録媒体(例えば非一時的な記録媒体)であってもよい。各機能の説明は一例であり、複数の機能が1つの機能にまとめられたり、1つの機能が複数の機能に分割されたりしてもよい。
また、以下の説明では、「xxxテーブル」といった表現にて情報を説明することがあるが、情報は、どのようなデータ構造で表現されていてもよい。すなわち、情報がデータ構造に依存しないことを示すために、「xxxテーブル」を「xxx情報」と言うことができる。また、以下の説明において、各テーブルの構成は一例であり、1つのテーブルは、2以上のテーブルに分割されてもよいし、2以上のテーブルの全部または一部が1つのテーブルであってもよい。
また、以下の説明では、「時刻」は、年月日時分秒の単位で表現されるが、時刻の単位は、それよりも粗くても細かくてもよいし、また異なる単位でもよい。
また、以下の説明では、「データセット」とは、1以上のデータ要素から成るデータ(論理的な電子データの塊)を意味し、例えば、レコード、ファイル、キーバリューペア及びタプルのうちのいずれでもよい。
図1は、実施例1に係るシステム全体の物理構成を示す。
実施例1に係るシステムは、ネットワーク120を介して接続された解析装置100および計測装置110を有する。
解析装置100は、データを分析する装置である。解析装置100は、ネットワークインターフェース104、メモリ102、記憶装置103、および、それらに接続されたプロセッサ101を有する。
プロセッサ101は、メモリ102に格納されたプログラムに従って、必要に応じて解析装置100内の各部を制御することによって種々の処理を実行する。
メモリ102は、例えばDRAM(Dynamic Random Access Memory)等の半導体メモリであり、プロセッサ101によって実行されるプログラム、プロセッサ101がプログラムに従って実行する処理において参照されるデータ、および、プロセッサ101が実行する処理の結果として生成されたデータ等を格納する。
記憶装置103は、例えばHDDまたはSSD等の記憶装置であり、プロセッサ101が実行する処理において使用される種々のデータを格納する。例えば、上記のプログラム及びデータが記憶装置103に格納され、必要に応じてそれらの少なくとも一部がメモリ102にコピーされてもよいし、メモリ102上で更新されたデータが必要に応じて記憶装置103にコピーされてもよい。
ネットワークインターフェース104は、ネットワーク120に接続され、ネットワーク120を介して計測装置110と通信する。
計測装置110は、データを計測する装置である。計測装置110は、ネットワークインターフェース114、メモリ112、記憶装置113、入力装置115、出力装置116、撮影装置117、および、それらに接続されたプロセッサ111を有する。
プロセッサ111は、メモリ112に格納されたプログラムに従って、必要に応じて計測装置110内の各部を制御することによって種々の処理を実行する。
メモリ112は、例えばDRAM等の半導体メモリであり、プロセッサ111によって実行されるプログラム、プロセッサ111がプログラムに従って実行する処理において参照されるデータ、および、プロセッサ111が実行する処理の結果として生成されたデータ等を格納する。
記憶装置113は、例えばHDDまたはSSD等の記憶装置であり、プロセッサ111が実行する処理において使用される種々のデータを格納する。例えば、上記のプログラム及びデータが記憶装置113に格納され、必要に応じてそれらの少なくとも一部がメモリ102にコピーされてもよいし、メモリ112上で更新されたデータが必要に応じて記憶装置113にコピーされてもよい。
ネットワークインターフェース114は、ネットワーク120に接続され、ネットワーク120を介して解析装置100と通信する。
入力装置115は、計測装置110のユーザからの情報の入力を受ける装置であり、例えばキーボード、マウス及びタッチパネル等の少なくともいずれかを含んでもよい。
出力装置116は、計測装置110のユーザに情報を出力する装置であり、例えば画像表示装置及びプリンタ等の少なくともいずれかを含んでもよい。
撮影装置117は、計測対象を撮影してその映像を取得する装置であれば、どのようなものであってもよい。例えば、撮影装置117は、2次元の映像を撮影する通常のRGBカメラまたは赤外線カメラ等の他、2次元の映像に加えて画素ごとの深度情報を取得可能な深度カメラ等であってもよい。
図2は、実施例1に係るシステム全体の論理構成を示す。
計測装置110は、計測部210、判定部220、計測DB(データベース)230及び判定DB240を有する。計測部210は、深度記録部211及び骨格座標推定部212を含む。判定部220は、時間判定部221、空間判定部222及び解析対象抽出部223を含む。計測部210及び判定部220は、いずれも計測装置110のプロセッサ111がメモリ112に格納されたプログラムを実行することによる機能ブロックである。すなわち、以下の説明において計測部210又は判定部220が実行する処理は、実際には、プロセッサ111がメモリ112に格納されたプログラムに従って実行する。
計測DB230及び判定DB240は、計測装置110の記憶装置113に格納される。計測DB230は、深度テーブル231及び骨格座標テーブル232を含む。これらの詳細は図3を参照して後述する。判定DB240は、時間制約テーブル241、空間制約テーブル242及び判定結果テーブル243を含む。これらの詳細は図4を参照して後述する。
解析装置100は、解析DB250を有する。これは、解析装置100の記憶装置103に格納される。解析DB250は、解析対象テーブル251を含む。解析対象テーブル251の詳細は図5を参照して後述する。
計測部210の深度記録部211は、撮影装置117によって撮影された映像データから深度情報を抽出して深度テーブル231に記録する。ここでは、撮影装置117が深度カメラである例を示している。深度記録部211の処理の詳細は図6を参照して後述する。
計測部210の骨格座標推定部212は、深度テーブル231を参照して、撮影された人物ごとの骨格座標を推定してその結果を骨格座標テーブル232に記録する。骨格座標推定部212の処理の詳細は図7を参照して後述する。
判定部220の時間判定部221は、骨格座標テーブル232及び時間制約テーブル241を参照して、撮影された人物ごとの時間該当率を計算し、その結果を判定結果テーブル243に記録する。時間判定部221の処理の詳細は図8を参照して後述する。
判定部220の空間判定部222は、骨格座標テーブル232及び空間制約テーブル242を参照して、撮影された人物ごとの空間該当率を計算し、その結果を判定結果テーブル243に記録する。空間判定部222の処理の詳細は図9を参照して後述する。
判定部220の解析対象抽出部223は、骨格座標テーブル232及び判定結果テーブル243を参照して、解析対象の人物に関する骨格座標データを抽出して、それを解析装置100に送信する。解析装置100は、解析対象抽出部223から受信したデータを解析対象テーブル251に記録する。解析対象抽出部223の処理の詳細は図10を参照して後述する。
ここで、本実施例の計測装置110及び解析装置100を使用した計測及び解析の一例を説明する。例えば、解析対象の人物に所定の動き(例えば歩行等)をしてもらってその様子を撮影装置117(例えば深度カメラ)で撮影し、それによって得られた計測データから当該人物の運動機能等を解析する場合を想定する。このとき、撮影装置117の撮影範囲に解析対象の人物だけがいるとは限らない。例えば、撮影を行うスタッフ、解析対象の人物の介助者、又は撮影と全く無関係な通行人等が解析対象の人物とともに撮影される場合がある。
計測部210は、計測データから人物ごとの各時刻の骨格座標を抽出する。判定部220は、人物ごとに、各時刻の骨格座標から、その人物が解析対象かを判定して、解析対象と判定された人物の骨格座標を解析装置100に出力する。解析装置100が行う解析処理はどのようなものであってもよいため、本実施例では説明を省略する。
図3は、実施例1に係る計測DB230に格納されるテーブルの構成を示す。
図2に示すように、計測DB230には深度テーブル231及び骨格座標テーブル232が格納される。深度テーブル231は、例えば図3に示すように、各々が映像の1フレームに相当する複数のレコードを含む。各レコードは、計測時刻231-1及び画素ごとの深度情報(例えば画素1の深度231-2、画素2の深度231-3及び画素3の深度231-4等)からなる。
計測時刻231-1は、各フレームの撮影時刻である。深度231-2~4等の深度情報は、各フレーム内の画素ごとの深度、すなわち、撮影装置117から各画素に対応する撮影対象までの距離を示す。図3では省略されているが、実際には各フレームの全画素の深度情報が深度テーブル231に記録される。
骨格座標テーブル232は、例えば図3に示すように、複数のレコードを含み、各レコードは、映像の1フレームに含まれる一人の人物の骨格座標の情報を含む。具体的には、各レコードは、計測時刻232-1、人物232-2及び人物ごとの骨格座標の情報(例えば人物の関節1の座標232-3及び関節2の座標232-4等)からなる。
計測時刻232-1は、各フレームの撮影時刻である。人物232-2は、各フレームに含まれる各人物の識別情報である。関節1の座標232-3及び関節2の座標232-4等は、各人物の各関節の位置の座標値(例えば撮影対象の空間内の位置を示す3次元座標値)である。図3では省略されているが、実際には各人物から抽出された全ての関節の座標値が骨格座標テーブル232に記録される。
図3の例では、2019年6月30日の15時0分10秒に撮影された1フレームから二人の人物が抽出され、それぞれに識別情報「P1」及び「P2」が与えられ、それぞれの人物の各関節の座標値が記録されている。
図4は、実施例1に係る判定DB240に格納されるテーブルの構成を示す。
図2に示すように、判定DB240には時間制約テーブル241、空間制約テーブル242及び判定結果テーブル243が格納される。
時間制約テーブル241には、解析対象を選定するための時間的な制約を示す情報が記録される。具体的には、時間制約テーブル241は、例えば図4に示すように、開始時241-1、終了時241-2及び時間率241-3からなる。
開始時241-1及び終了時241-2は、映像に含まれる人物が解析対象であるかを判定するための基準となる時間帯の始点及び終点を指定する情報であり、時間率241-3は、その時間帯に含まれるレコードの割合(すなわち時間該当率)の閾値を示す情報である。これらを参照した判定の詳細は図8を参照して後述する。
空間制約テーブル242には、解析対象を選定するための空間的な制約を示す情報が記録される。具体的には、空間制約テーブル242は、例えば図4に示すように、縦範囲242-1、横範囲242-2及び空間率242-3からなる。
縦範囲242-1及び横範囲242-2は、映像に含まれる人物が解析対象であるかを判定するための基準となる空間の範囲を指定する情報であり、空間率242-3は、その範囲に含まれるレコードの割合(すなわち空間該当率)の閾値を示す情報である。これらを参照した判定の詳細は図9を参照して後述する。
判定結果テーブル243には、映像に含まれる人物が解析対象であるかを判定するために骨格座標テーブル232、時間制約テーブル241及び空間制約テーブル242を参照して行われた計算の結果が記録される。具体的には、判定結果テーブル243は、例えば図4に示すように、人物243-1、時間該当率243-2及び空間該当率243-3からなる。
人物243-1は、映像に含まれる各人物の識別情報であり、骨格座標テーブル232の人物232-2に対応する。時間該当率243-2及び空間該当率243-3には、それぞれ、各人物について計算された時間該当率及び空間該当率が記録される。これらの計算の詳細は図10を参照して後述する。
ここで、時間制約テーブル241及び空間制約テーブル242の設定の例について説明する。ここでは、解析対象の人物にしてもらう所定の動作が「歩行」である例を説明する。具体的には、撮影者が発した合図に従って、所定の歩行コースを解析対象の人物に歩行してもらい、その様子を撮影装置117が撮影し、歩行コース内の歩行が終了したら撮影を停止する例について説明する。
このとき、例えば、撮影を開始してから、合図に従って解析対象の人物が実際に歩き始めるまでの時間が5秒程度であり、撮影を開始してから15秒程度経過すると歩行コース内の歩行が終了すると想定される場合、開始時241-1及び終了時241-2にはそれぞれ「5秒」及び「15秒」が設定される。
この場合、解析対象の人物は、合図に従って歩き始めて、歩行が終了したら撮影を停止することから、撮影されたデータのうち当該解析対象の人物に関するデータのほとんどが上記の5秒から15秒の時間の範囲に含まれていると想定される。一方、撮影されたデータに解析対象外の人物に関するデータが含まれる場合、その人物は、合図と無関係に動いているか、あるいは、一時的に撮影範囲内に写りこんでいるだけであると想定され、そのような人物のデータが上記の時間の範囲に含まれる率(すなわち時間該当率)は低いと想定される。時間率241-3は、時間該当率に基づいて解析対象の人物を判別するための閾値であり、判別のために適切な値(図4の例では「80%」)が設定される。
また、上記の歩行コースの範囲を示す座標値が縦範囲242-1及び横範囲242-2に設定される。例えば撮影装置117によって撮影される空間内の位置を直交座標系の座標値によって特定する場合に、一つの軸の座標値を縦範囲242-1として、それに直交する軸の座標値を横範囲242-2として設定してもよい。ただしこのような空間の範囲の特定方法は一例であり、別の方法で空間の範囲を特定してもよい。
この場合も、解析対象の人物は歩行コースを歩こうとするため、撮影されたデータのうち当該解析対象の人物に関するデータのほとんどの位置が上記の空間の範囲内に含まれていると想定される。一方、撮影されたデータに解析対象外の人物に関するデータが含まれる場合、その人物は、例えばそれがスタッフ又は介助者であれば歩行コースから少し外れたところを歩いていると想定され、無関係な通行人であれば歩行コース内を歩行するのは一時的であると想定されることから、そのような人物のデータが示す位置が上記の空間の範囲内に含まれる率(すなわち空間該当率)は低いと想定される。空間率242-3は、空間該当率に基づいて解析対象の人物を判別するための閾値であり、判別のために適切な値(図4の例では「90%」)が設定される。
なお、時間制約テーブル241に記録される情報及び空間制約テーブル242に記録される情報は、時空間の制約の一例である。実施例1では、時空間の制約が、時間と空間のそれぞれにおいて独立に設定されるが、それらが関連付けて設定されてもよい。後者の例については、実施例2において後述する。
図5は、実施例1に係る解析DB250に格納されるテーブルの構成を示す。
図2に示すように、解析DB250には解析対象テーブル251が格納される。解析対象テーブル251には、骨格座標テーブル232に格納されたレコードのうち、解析対象であると判定された人物に関するレコードが記録される。具体的には、解析対象テーブル251の各レコードは、計測時刻251-1、人物251-2、関節1の座標251-3及び関節2の座標251-4等からなる。これらは、それぞれ、骨格座標テーブル232の計測時刻232-1、人物232-2、関節1の座標232-3及び関節2の座標232-4等に対応する。ただし、骨格座標テーブル232と異なり、解析対象テーブル251には、解析対象であると判定された人物(図5の例では人物「P2」)に関するレコードのみを含んでいる。
図6は、実施例1に係る深度記録部211の処理を示すフローチャートである。
深度記録部211は、撮影装置117が撮影したデータを取得して深度記録を開始すると、撮影が停止するまで、以下のステップS601~S603を繰り返し実行する。
最初に、深度記録部211は、撮影装置117から深度データセットを取得する(S601)。次に、深度記録部211は、深度テーブル231にレコードを追加して、取得した深度データセットを記録する(S602)。これによって、取得した深度データセットの計測時刻と、それに対応する各画素の深度情報とを含むレコードが深度テーブル231に追加される。次に、深度記録部211は、骨格座標推定部212を呼び出す(S603)。撮影が停止すると、深度記録部211の処理が終了する。
図7は、実施例1に係る骨格座標推定部212の処理を示すフローチャートである。
最初に、骨格座標推定部212は、深度テーブル231から撮影時間分のレコードを取得する(S701)。次に、骨格座標推定部212は、取得したレコードから、人物ごとの骨格座標を認識する(S702)。このとき、骨格座標推定部212は、公知の深度認識モデルを用いることができるため、認識の詳細な方法についての説明は省略する。
次に、骨格座標推定部212は、骨格座標の認識の結果として得られた座標値を含むレコードを骨格座標テーブル232に追加する(S703)。次に、骨格座標推定部212は、時間判定部221を呼び出して(S704)、処理を終了する。
上記の図6及び図7は、撮影装置117が深度カメラである場合の処理の例である。しかし、前述のように、撮影装置117は深度を計測しない通常のRGBカメラ等であってもよい。その場合、計測部210は、撮影装置117から取得した映像情報を計測DB230に記録する。例えば、深度テーブル231における各フレームの画素ごとの深度の代わりに、画素ごとのRGB値等が記録される。骨格座標推定部212は、各フレームのRGB値を参照して、画像認識モデルを用いて骨格座標を推定する。このとき、骨格座標推定部212は、例えば公知のOpenPoseなど、任意の認識モデルを用いることができる。
図8は、実施例1に係る時間判定部221の処理を示すフローチャートである。
最初に、時間判定部221は、深度テーブル231の最初のレコードの計測時刻321-1を撮影開始時刻として取得する(S801)。例えば深度テーブル231が図3に示す通りである場合、最初のレコードの計測時刻321-1の値である2019年6月30日15時0分0秒00が取得される。
次に、時間判定部221は、時間制約テーブル421から開始時241-1及び終了時241-2の秒数を取得する(S802)。例えば時間制約テーブル421が図4に示す通りである場合、開始時241-1及び終了時241-2の秒数としてそれぞれ5秒及び15秒が取得される。
次に、時間判定部221は、骨格座標テーブル232のレコードを全て取得するまで、以下のステップS803からS806の処理を実行する。まず、時間判定部221は、骨格座標テーブル232からまだ取得していないレコードを取得して、当該レコードの人物232-2を参照し、当該人物に対応するレコードの総数をカウントアップ(すなわち+1)する(S803)。
次に、時間判定部221は、当該レコードの計測時刻232-1とS801で取得した撮影開始時刻との差分を、撮影開始からの経過時刻として生成する(S804)。これによって、例えば上記の図3及び図4の例においては、2019年6月30日15時0分0秒00を時刻0としたときの各レコードの経過時刻が生成される。
次に、時間判定部221は、当該レコードについて、ステップS804で計算された経過時刻がステップS802で取得された開始時から終了時までの範囲内(上記の例では5秒以上15秒以下)であるかを判定する(S805)。
ステップS805において、経過時刻が開始時から終了時までの範囲内であると判定された場合(S805:Yes)、時間判定部221は、当該レコードに対応する人物の時間該当数をカウントアップ(すなわち+1)する(S806)。一方、ステップS805において、経過時刻が開始時から終了時までの範囲外であると判定された場合(S805:No)、時間判定部221は、当該レコードに関してステップS806を実行しない。
骨格座標テーブル232の全てのレコードについて上記のステップS803からS806の処理が終了すると、骨格座標テーブル232の人物ごとのレコードの総数が計数され、さらに、人物ごとに、経過時刻が開始時から終了時までの範囲内であるレコードの数が時間該当数として計数されたことになる。
次に、時間判定部221は、人物ごとに、レコード総数に対する時間該当数の割合を時間該当率として計算する(S807)。
次に、時間判定部221は、人物ごとの時間該当率を判定結果テーブル243の当該人物に対応するレコードに時間該当率243-2として記録する(S808)。
以上で時間判定部221の処理が終了する。
図9は、実施例1に係る空間判定部222の処理を示すフローチャートである。
最初に、空間判定部222は、空間制約テーブル422から縦範囲242-1及び横範囲242-2の座標を取得する(S901)。例えば空間制約テーブル422が図4に示す通りである場合、縦範囲242-1及び横範囲242-2の座標としてそれぞれ(2,5)及び(-1,1)が取得される。
次に、空間判定部222は、骨格座標テーブル232のレコードを全て取得するまで、以下のステップS902からS905の処理を実行する。まず、空間判定部222は、骨格座標テーブル232からまだ取得していないレコードを取得して、当該レコードの人物232-2を参照し、当該人物に対応するレコードの総数をカウントアップ(すなわち+1)する(S902)。
次に、空間判定部222は、当該レコードの各関節座標の縦の値及び横の値を取得する(S903)。具体的には、空間判定部222は、各関節座標の値のうち、空間制約テーブル242の縦範囲242-1の座標軸と同じ座標軸上の値と、横範囲242-2の座標軸と同じ座標軸上の値とを取得する。
次に、空間判定部222は、ステップS903で取得した各関節座標とステップS901で取得した縦範囲及び横範囲とを比較し、各関節座標の縦の値が縦範囲に含まれ、かつ、各関節座標の横の値が横範囲に含まれるかを判定する(S904)。
ここで、骨格座標テーブル232の一つのレコードには一人の人物の複数の関節座標が含まれている。空間判定部222は、ステップS904において、上記の複数の関節座標の全てが縦範囲及び横範囲に含まれるかを判定してもよいし、所定の割合又は所定の数の関節座標が縦範囲及び横範囲に含まれるかを判定してもよいし、1以上の所定の部位の関節が縦範囲及び横範囲に含まれるかを判定してもよい。
また、上記のように座標の縦の値と横の値とをそれぞれ空間制約テーブル422の縦範囲242-1及び横範囲242-2と比較するのは、取得された人物の位置が所定の空間の範囲に含まれるかを判定する方法の一例であり、上記以外の方法によって判定が行われてもよい。
ステップS904において、関節座標値が縦範囲及び横範囲に含まれると判定された場合(S904:Yes)、空間判定部222は、当該レコードに対応する人物の空間該当数をカウントアップ(すなわち+1)する(S905)。一方、ステップS904において、関節座標値が縦範囲及び横範囲に含まれないと判定された場合(S904:No)、空間判定部222は、当該レコードに関してステップS905を実行しない。
骨格座標テーブル232の全てのレコードについて上記のステップS902からS905の処理が終了すると、骨格座標テーブル232の人物ごとのレコードの総数が計数され、さらに、人物ごとに、関節座標値が縦範囲及び横範囲に含まれるレコードの数が空間該当数として計数されたことになる。
次に、空間判定部222は、人物ごとに、レコード総数に対する空間該当数の割合を空間該当率として計算する(S906)。
次に、空間判定部222は、人物ごとの空間該当率を判定結果テーブル243の当該人物に対応するレコードの空間該当率243-3として記録する(S907)。
以上で空間判定部222の処理が終了する。
図10は、実施例1に係る解析対象抽出部223の処理を示すフローチャートである。
最初に、解析対象抽出部223は、時間制約テーブル241の時間率241-3を取得する(S1001)。次に、解析対象抽出部223は、空間制約テーブル242の空間率242-3を取得する(S1002)。
次に、解析対象抽出部223は、判定結果テーブル243のレコードを全て取得するまで、以下のステップS1003からS1005の処理を実行する。まず、解析対象抽出部223は、判定結果テーブル243からまだ取得していないレコードを取得して、当該レコードの時間該当率243-2が時間率241-3以上であるかを判定する(S1003)。
ステップS1003において、当該レコードの時間該当率243-2が時間率241-3以上であると判定された場合(S1003:Yes)、解析対象抽出部223は、当該レコードの空間該当率243-3が空間率242-3以上であるかを判定する(S1004)。
ステップS1004において、当該レコードの空間該当率243-3が空間率242-3以上であると判定された場合(S1004:Yes)、解析対象抽出部223は、当該レコードに対応する人物(すなわち当該レコードの人物243-1の値によって識別される人物)を保持する(S1005)。
一方、ステップS1003において、当該レコードの時間該当率243-2が時間率241-3以上でないと判定された場合(S1003:No)、解析対象抽出部223は、当該レコードに関してステップS1004及びS1005を実行しない。また、ステップS1004において、当該レコードの空間該当率243-3が空間率242-3以上でないと判定された場合(S1004:No)、解析対象抽出部223は、当該レコードに関してS1005を実行しない。
判定結果テーブル243の全てのレコードについて上記のステップS1003からS1005が終了すると、解析対象抽出部223は、ステップS1005において保持した人物の識別情報が人物232-2として記録されているレコードを骨格座標テーブル232から抽出して(S1006)、それを解析対象テーブル251に格納する(S1007)。解析対象テーブル251は解析装置100に送信され、解析DB250に格納される。
その後、解析対象抽出部223は、深度テーブル231、骨格座標テーブル232及び判定結果テーブル243から、上記の処理が終了したレコードを消去する(S1008)。以上で解析対象抽出部223の処理が終了する。
図10では、ステップS1003~S1005に示すように、時間該当率が時間率以上であると判定され、かつ、空間該当率が空間率以上であると判定された人物が解析対象として保持される。しかし、このような判定は一例であり、上記以外の判定が行われてもよい。例えば、時間該当率の判定と空間該当率の判定のそれぞれに異なる重みを与えることによって、いずれかの判定結果を重視してもよい。これによって、状況に応じて柔軟な判定条件を与えて適切に解析対象を抽出することができる。
次に、本発明の実施例2について説明する。以下に説明する相違点を除き、実施例2のシステムの各部は、実施例1の同一の符号を付された各部と同一の機能を有するため、それらの説明は省略する。
図11は、実施例2に係るシステム全体の論理構成を示す。
実施例2の計測装置110は、判定部220が判定部1120によって置き換えられ、判定DB240が判定DB1130によって置き換えられ、さらにU/I(ユーザインターフェース)制御部1140を有する点を除いて、実施例1の計測装置110と同様である。
判定DB1130は、計測装置110の記憶装置113に格納され、ピッチテーブル1131、時空間制約テーブル1132及び判定結果テーブル1133を含む。これらの詳細は図12を参照して後述する。
判定部1120は、実施例1の判定部220と同様に、計測装置110のプロセッサ111がメモリ112に格納されたプログラムを実行することによる機能ブロックである。U/I制御部1140も同様である。すなわち、以下の説明において判定部1120又はU/I制御部1140が実行する処理は、実際には、プロセッサ111がメモリ112に格納されたプログラムに従って実行する。
判定部1120は、ピッチ抽出部1121、時空間判定部1122及び解析対象抽出部1123を含む。
ピッチ抽出部1121は、骨格座標テーブル232を参照して、周期性のある動きを抽出して、その開始時刻及び終了時刻を特定してピッチテーブル1131に記録する。ピッチ抽出部1121の処理の詳細は図13を参照して後述する。
時空間判定部1122は、骨格座標テーブル232及び時空間制約テーブル1132を参照して、撮影された人物ごとの時空間該当率を計算し、その結果を判定結果テーブル1133に記録する。時空間判定部1122の処理の詳細は図14を参照して後述する。
解析対象抽出部1123は、骨格座標テーブル232及び判定結果テーブル1133を参照して、解析対象の人物に関する骨格座標データを抽出して、それを解析装置100に送信する。解析装置100は、解析対象抽出部1123から受信したデータを解析対象テーブル251に記録する。解析対象抽出部1123の処理の詳細は図15を参照して後述する。
U/I制御部1140は、入力装置115及び出力装置116を介したユーザインターフェース画面の表示及びユーザから入力された情報の受け付けを制御する。U/I制御部1140の処理及び提供されるユーザインターフェースの詳細は図16及び図17を参照して後述する。
図12は、実施例2に係る判定DB1130に格納されるテーブルの構成を示す。
図11に示すように、判定DB1130にはピッチテーブル1131、時空間制約テーブル1132及び判定結果テーブル1133が格納される。
ピッチテーブル1131には、骨格座標テーブルから抽出された各人物の周期性のある動きの各周期の時間を特定する情報が記録される。具体的には、ピッチテーブル1131は、例えば図12に示すように、人物1131-1、ピッチ1131-2、開始時刻1131-3及び終了時刻1131-4からなる。
人物1131-1は、映像に含まれる各人物の識別情報であり、骨格座標テーブル232の人物232-2に対応する。ピッチ1131-2は、抽出された周期性のある動きの周期の順序を示す情報である。開始時刻1131-3及び終了時刻1131-4は、それぞれの周期の始点及び終点を示す情報である。
例えば、図12の先頭及び2番目のレコードは、識別情報「P1」によって識別される人物の骨格座標から周期性のある動き(例えば歩行等)が抽出され、その最初の周期(すなわち1ピッチ目)が2019年6月30日15時00分10.00秒に始まって11.23秒に終わり、その次の周期(すなわち2ピッチ目)が11.23秒に始まって12.49秒に終わったことを示している。ここで、1つのピッチとは、例えば歩行の場合において、人物が左足を接地してから次に左足を接地するまでの周期など、繰り返しの単位となる1周期に相当する。
時空間制約テーブル1132には、解析対象を選定するための時間的及び空間的な制約を示す情報が記録される。具体的には、時空間制約テーブル1132は、例えば図12に示すように、種別1132-1、選択1132-2、ピッチ1132-3、縦範囲1132-4、横範囲1132-5及び時空間該当率1132-6からなる。
種別1132-1は、動きの種類を示す。動きの種類の例として、自然歩行、ニーベント歩行(すなわち膝を曲げて重心を下げた状態での歩行)、又はカーフレーズ歩行(すなわち爪先立ちでの歩行)などが挙げられる。
選択1132-2は、それぞれの動きの種別が抽出の対象として選択されたか否かを示す。例えば、「True」が選択されたことを、「False」が選択されていないことを示す。図12の例では、自然歩行が選択されており、ニーベント歩行は選択されていない。
ピッチ1132-3は、抽出された周期性のある動きが行われた期間が複数の部分に分割されるときに、それぞれの部分を指定する情報である。
縦範囲1132-4及び横範囲1132-5は、映像に含まれる人物が解析対象であるかを判定するための基準となる空間の範囲を指定する情報であり、抽出された周期性のある動きが行われた期間の部分ごとに指定される。
時空間該当率1132-6は、縦範囲1132-4及び横範囲1132-5によって指定される範囲に含まれるレコードの割合(すなわち時空間該当率)の閾値を示す情報である。
例えば、図12に示す時空間制約テーブル1132の最初の二つのレコードによれば、周期性のある動きである「自然歩行」が抽出の対象として選択されている。そして、その動きが行われた期間(例えば解析対象の人物が合図に従って事前歩行を開始してから終了するまでの期間)が、0%~50%(すなわち前半)の部分と50%~100%(すなわち後半)の部分とに分割される。
前半に対応する縦範囲1132-4及び横範囲1132-5としてそれぞれ(2,5)及び(-2,0)が設定され、時空間該当率1132-6として「90%」が設定される。後半に対応する縦範囲1132-4及び横範囲1132-5としてそれぞれ(2,5)及び(0,2)が設定され、時空間該当率1132-6として「80%」が設定される。
上記の例は、解析対象の人物に、あるスタート地点から折り返し地点まで歩行を開始してもらい、折り返し地点で折り返してスタート地点に隣接するゴール地点まで歩行してもらってその様子を撮影する場合などを想定している。すなわち周期性のある動き(例えば自然歩行)が行われた期間が、解析対象の人物がスタート地点からゴール地点まで歩行する期間に相当する。そのうち前半がスタート地点から折り返し地点まで、後半が折り返し地点からゴール地点までに相当する。
例えば、上記のように、人物が左足を接地してから次に左足を接地するまでの周期などを1ピッチとした場合、1ピッチは2歩に相当する。例えばある人物の骨格座標からピッチ1から4までの4ピッチが抽出された場合、前半の2ピッチ(すなわち4歩)分の期間がスタート地点から折り返し地点までの期間、後半の2ピッチ(すなわち4歩)分の期間が折り返し地点からゴール地点までの期間として特定される。
また、例えば前半と後半の歩行コースが平行して隣接するなど、前半と後半の歩行コースが異なっている場合には、それぞれに合わせて縦範囲1132-4及び横範囲1132-5を設定することができる。また、例えば目標物の有無などによって前半と後半における歩行コースからの外れやすさに差がある場合には、それに合わせて、前半と後半で異なる時空間該当率1132-6を設定することができる。
なお、上記は一例であり、例えば人物がスタート地点からゴール地点までの直線上を1度だけ歩行する場合には、上記のようにピッチに基づいて分割をする必要はなく、最初のピッチから最後のピッチまでの期間を周期性のある動きが行われた期間として抽出することができる。また、例えば人物が矩形の領域の輪郭を1周するように歩行する場合、又は、ある区間を2往復以上歩行する場合などは、2より多くの部分への分割が行われてもよい。
判定結果テーブル1133には、映像に含まれる人物が解析対象であるかを判定するために骨格座標テーブル232、ピッチテーブル1131及び時空間制約テーブル1132を参照して行われた計算の結果が記録される。具体的には、判定結果テーブル1133は、例えば図12に示すように、人物1133-1、ピッチ1133-2及び時空間該当率1133-3からなる。
人物1133-1は、映像に含まれる各人物の識別情報であり、骨格座標テーブル232の人物232-2に対応する。ピッチ1133-2は、抽出された周期性のある動きが行われた期間の部分を指定する情報であり、時空間制約テーブル1132のピッチ1132-3に対応する。時空間該当率1133-3には、各人物について計算された時空間該当率が記録される。これらの計算の詳細は図14を参照して後述する。
図13は、実施例2に係るピッチ抽出部1121の処理を示すフローチャートである。
最初に、ピッチ抽出部1121は、骨格座標テーブル232のレコードを取得する(S1301)。次に、ピッチ抽出部1121は、平滑化によって計測ノイズを除去する(S1302)。例えば、ピッチ抽出部1121は、取得した骨格座標テーブル232のレコードの関節座標を、人物の関節ごとに時系列に並べて、移動平均をとるなどの方法によって平滑化を行ってもよい。
次に、ピッチ抽出部1121は、人物ごとの周波数解析によって、人物の動きの周期を示す時刻群を抽出する(S1303)。例えば、ピッチ抽出部1121は、平滑化された時系列の関節座標のデータをフーリエ変換するなどの方法によって、人物の動きの周期を抽出してもよい。
次に、ピッチ抽出部1121は、人物ごと及びピッチごとに、抽出された周期の開始時刻及び終了時刻をピッチテーブル1131に格納する(S1304)。
以上でピッチ抽出部1121の処理が終了する。
図14は、実施例2に係る時空間判定部1122の処理を示すフローチャートである。
最初に、時空間判定部1122は、時空間制約テーブル1132を参照して、選択1132-2が「True」であるレコードを抽出し、抽出したレコードのピッチ1132-3に記録されている割合を保持する(S1401)。図12の例では、先頭の二つのレコードが抽出され、ピッチ1132-3の値「50%」及び「100%」が保持される。
次に、時空間判定部1122は、ピッチテーブル1131を参照して、人物ごとに、格納されているピッチの総数をカウントする(S1402)。次に、時空間判定部1122は、ステップS1401で保持されたピッチの割合と、ステップS1402でカウントされたピッチの総数とに基づいて、ピッチを分割する(S1403)。
例えば、ステップS1402において図12に示すピッチテーブル1131が参照された場合、人物「P1」に関して、最初の二つのレコードに格納されたのピッチ1及び2が抽出される。仮に、図12では省略されているが、人物「P1」に関してさらにピッチ3及び4がピッチテーブル1131に格納されているとすると、ステップS1402ではピッチ1~4の4つのピッチがカウントされる。そして、ステップ1403では、それらの4つのピッチが、「0~50%」(すなわち前半)に対応するピッチ1から2までの集合と、「50~100%」(すなわち後半)に対応するピッチ3から4までの集合とに分割される。
次に、時空間判定部1122は、分割したピッチごとに、以下のステップS1404からS1410の処理を実行する。
まず、時空間判定部1122は、分割したピッチの集合のうち一つを選択して、それに含まれる最初のピッチの開始時刻と最後のピッチの集合時刻とを取得する(S1404)。例えば図12の人物P1のピッチ1、2からなる集合の場合、ピッチ1の開始時刻1131-3の値と、ピッチ2の終了時刻1131-4の値とが取得される。
次に、時空間判定部1122は、骨格座標テーブル232から、ステップS1404で取得された開始時刻から終了時刻までの範囲内のレコードを抽出する(S1405)。
次に、時空間判定部1122は、時空間制約テーブル1132から、選択された種別の、ピッチの割合が該当するレコードの縦範囲及び横範囲を取得する(S1406)。例えば自然歩行が選択されており、上記の通りピッチ1から4のうち0~50%のピッチ1及び2が選択されている場合、それに対応する縦範囲1132-4の値(2,5)及び横範囲1132-5の値(-2,0)が取得される。
次に、時空間判定部1122は、ステップS1405で抽出したレコードから、各関節座標の縦の値及び横の値を取得し(S1407)、それらが縦範囲及び横範囲に含まれるかを判定し、含まれると判定されたレコードの数を集計する(S1408)。なお、ここでの判定は、図9のステップS904と同様に行ってもよい。
次に、時空間判定部1122は、ステップS1405で抽出したレコードの数に対する、ステップS1408で集計したレコードの数の割合から、時空間該当率を生成する(S1409)。
次に、時空間判定部1122は、人物の識別情報と、ピッチの割合(例えば上記のようにピッチ1及び2が選択された場合には0~50%であることを示す「50%」)、及び、ステップS1409で生成された時空間該当率を、判定結果テーブル1133に格納する(S1410)。
時空間判定部1122は、ステップS1403で分割されたピッチの集合の残りについても上記のステップS1404~S1410の処理を実行する。さらに、時空間判定部1122は、ピッチテーブル1131から抽出された全ての人物について上記の処理を実行する。
以上で時空間判定部1122の処理が終了する。
図15は、実施例2に係る解析対象抽出部1123の処理を示すフローチャートである。
最初に、解析対象抽出部1123は、時空間制約テーブル1132を参照して、選択1132-2が「True」であるレコードを抽出する(S1501)。
次に、解析対象抽出部1123は、判定結果テーブル1133の全てのレコードを取得するまで、以下のステップS1502~S1503の処理を実行する。
まず、解析対象抽出部1123は、判定結果テーブル1133からまだ取得していないレコードを取得して、取得したレコードの時空間該当率1133-3の値が、取得したレコードに対応する時空間制約テーブル1132のレコードの時空間該当率1132-6の値以上であるかを判定する(S1502)。ここで、取得したレコードに対応する時空間制約テーブル1132のレコードとは、選択1132-2の値が「True」であり、かつ、ピッチ1132-3の値が取得したレコードのピッチ1133-2の値と同じであるレコードである。
取得したレコードの時空間該当率1133-3の値が、取得したレコードに対応する時空間制約テーブル1132のレコードの時空間該当率1132-6の値以上である場合(S1502:Yes)、解析対象抽出部1123は、取得したレコードの人物1133-1の値及びピッチ1133-2の値に対応する該当フラグを保持する(S1503)。
一方、取得したレコードの時空間該当率1133-3の値が、取得したレコードに対応する時空間制約テーブル1132のレコードの時空間該当率1132-6の値以上でない場合(S1502:No)、解析対象抽出部1123はステップS1503を実行しない。
判定結果テーブル1133の全てのレコードについて上記のステップS1502~S1503の処理が終了すると、解析対象抽出部1123は、対応する全てのピッチにおいて該当フラグが保持されている人物を保持する(S1504)。
ここで、図12に示すような時空間制約テーブル1132が設定されている場合において、図12に示すような判定結果テーブル1133が得られた場合のステップS1504を説明する。人物「P1」については、前半の時空間該当率1133-3が「100%」であり、対応する閾値(すなわち時空間該当率1132-6の値)「90%」以上であるが、後半の時空間該当率1133-3は「0%」であり、対応する閾値「80%」より小さい。人物「P2」については、前半の時空間該当率1133-3「96%」及び後半の時空間該当率1133-3「90%」がいずれも対応する閾値以上である。人物「P3」については、前半の時空間該当率1133-3「0%」及び後半の時空間該当率1133-3「3%」がいずれも対応する閾値より小さい。このため、ステップS1504では人物「P2」が保持される。
次に、解析対象抽出部1123は、ステップS1504において保持した人物の識別情報が人物232-2として記録されているレコードを骨格座標テーブル232から抽出して(S1505)、それを解析対象テーブル251に格納する(S1506)。解析対象テーブル251は解析装置100に送信され、解析DB250に格納される。
その後、解析対象抽出部223は、深度テーブル231、骨格座標テーブル232及び判定結果テーブル1133から、上記の処理が終了したレコードを消去する(S1507)。以上で解析対象抽出部223の処理が終了する。
図16は、実施例2に係るU/I制御部1140の処理を示すフローチャートである。
U/I制御部1140は、処理を開始すると、まず時空間制約テーブル1132を参照し(S1601)、次に深度テーブル231及び骨格座標テーブル232を参照し(S1602)、次に制約設定画面を表示する(S1603)。制約設定画面の例については図17を参照して後述する。
次に、U/I制御部1140は、制約設定画面を介して何らかの情報が入力されたかを判定し(S1604)、入力された場合(S1604:Yes)、入力された情報に従ってテーブルの内容を更新する(S1605)。
その後、U/I制御部1140は、制約設定画面を閉じる指示が入力されたかを判定し(S1606)、入力されなければ(S1606:No)ステップS1604に戻る。制約設定画面を閉じる指示が入力された場合(S1606:Yes)、U/I制御部1140は処理を終了する。
図17は、実施例2において表示される制約設定画面を示す。
図17に示す制約設定画面1700は、出力装置116によって表示される画面であり、時空間該当率設定部1701、ピッチ分割数設定部1702、ピッチ選択部1703、空間指定部1704、設定ボタン1708及び閉じるボタン1709を含む。
時空間該当率設定部1701は、それぞれの動きの種別(例えば自然歩行、ニーベント歩行及びカーフレーズ歩行等)ごと、及び、その動きが行われた期間をピッチ数の割合(例えば0~50%及び50~100%等)に基づいて分割した部分ごとの時空間該当率1132-6を設定するための領域である。ユーザは、この領域に、所望の時空間該当率の閾値を入力することができる。
ピッチ分割数設定部1702は、周期性のある動きが行われた期間をいくつの部分に分割するかを設定するための領域である。ユーザは、この領域に、所望の分割数を入力することができる。
ピッチ選択部1703は、どの種別の動きのピッチを選択するかを設定するための領域である。例えば、ユーザは、時空間該当率設定部1701においていずれかの動きの種別を設定して、ピッチ選択部1703において選択の入力をすると、その動きの種別に対応する選択1132-2が「True」に設定される。
空間指定部1704は、時空間制約テーブル1132の縦範囲1132-4及び横範囲1132-5を設定するための領域である。この領域には、例えば、撮影装置117が解析対象の人物1706の動きを撮影するための空間の平面図が表示されてもよい。図17の例では、撮影装置117、撮影装置117による撮影範囲1705が表示されている。ユーザが入力装置115を操作して例えば空間の制約を示す矩形1707の位置及び大きさを設定することによって、その矩形1707によって区切られる空間内の縦範囲1132-4及び横範囲1132-5を設定することができる。
ユーザが上記の領域に所望の情報を入力して設定ボタン1708を操作すると、入力された情報が時空間制約テーブル1132に反映される。また、ユーザが閉じるボタン1709を操作すると、制約設定画面1700が閉じる。
実施例1では説明を省略したが、実施例1の時間制約テーブル241及び空間制約テーブル242の内容も上記と同様に画面を通じたU/Iによって設定することができる。
以上の本発明の実施例によれば、計測データの時間と空間との関係性の該当率を閾値判定することで、システムが想定する計測プロトコルに則らない動作を概ね除去することができる。これによって、計測誤差及び映り込みのノイズが多い環境下でも、解析手法に影響を与えることなく必要な計測データを抽出することが可能となる。
上記の本発明の実施形態は、次のような例を含む。
(1)プロセッサ(例えばプロセッサ111)と、記憶部(例えばメモリ112及び記憶装置113の少なくとも一方)と、を有する計測装置(例えば計測装置110であって、記憶部は、撮影装置(例えば撮影装置117)によって取得された時刻ごとの計測データ(例えば深度テーブル231)と、時空間の制約(例えば時間制約テーブル241及び空間制約テーブル242、又は、時空間制約テーブル1132)と、を保持する。プロセッサは、時刻ごとの計測データから物体の位置を抽出し(例えば骨格座標推定部212の処理)、物体が時空間の制約を満たすかを判定し(例えば時間判定部及び空間判定部の処理、又は、時空間判定部の処理)、物体が時空間の制約を満たすかの判定の結果に基づいて、物体が解析対象かを判定する(例えば解析対象抽出部223又は解析対象抽出部1123の処理)。
これによって、計測誤差及び映り込みのノイズが多い環境下でも、解析手法に影響を与えることなく必要な計測データを抽出することが可能となる。
(2)上記(1)において、時空間の制約は、時間の制約(例えば時間制約テーブル241)及び空間の制約(例えば空間制約テーブル242)を含んでもよい。プロセッサは、物体が時間の制約を満たすかを判定し(例えば時間判定部221の処理)、物体が空間の制約を満たすかを判定し(例えば空間判定部222の処理)、物体が時間の制約を満たすかの判定及び物体が空間の制約を満たすかの判定の結果に基づいて、物体が解析対象かを判定してもよい。
(3)上記(2)において、時間の制約は、時間の範囲(例えば開始時241-1及び終了時241-2)を含んでもよい。プロセッサは、物体の位置が抽出された計測データに対する、時刻が時間の範囲に含まれる計測データの割合である時間該当率(例えば時間該当率243-2)を計算し、時間該当率に基づいて、物体が時間の制約を満たすかを判定してもよい。
(4)上記(3)において、時間の制約は、時間該当率の閾値(例えば時間率241-3)を含んでもよい。プロセッサは、時間該当率が時間該当率の閾値以上である場合に、物体が時間の制約を満たすと判定してもよい。
(5)上記(2)において、空間の制約は、撮影装置によって撮影される空間に含まれる空間の範囲(例えば縦範囲242-1及び横範囲242-2)を含んでもよい。プロセッサは、物体の位置が抽出された計測データに対する、物体の位置が空間の範囲に含まれる前記計測データの割合である空間該当率(例えば空間該当率243-3)を計算し、空間該当率に基づいて、物体が空間の制約を満たすかを判定してもよい。
(6)上記(5)において、空間の制約は、空間該当率の閾値(例えば空間率242-3)を含んでもよい。プロセッサは、空間該当率が空間該当率の閾値以上である場合に、物体が空間の制約を満たすと判定してもよい。
上記(2)~(6)によれば、物体が時間の制約及び空間の制約のそれぞれを満たしているかを判断して、解析対象であるかを判定することができる。それぞれの制約を独立に設定することで、状況に応じた柔軟な判定をすることができる。
(7)上記(1)において、時空間の制約は、計測データに基づいて時間の範囲を特定する条件(例えば時空間制約テーブル1132の種別1132-1~ピッチ1132-3)と、時間の範囲に対応する空間の範囲(例えば縦範囲1132-4及び横範囲1132-5)と、を含んでもよい。プロセッサは、条件に基づいて特定された時間の範囲内の計測データに対する、物体の位置が空間の範囲に含まれる計測データの割合である時空間該当率(例えば時空間該当率1133-3)を計算し(例えば時空間判定部1122の処理)、時空間該当率に基づいて、物体が時空間の制約を満たすかを判定してもよい。
(8)上記(7)において、時空間の制約は、時空間該当率の閾値(例えば時空間該当率1123-6)を含んでもよい。プロセッサは、時空間該当率が時空間該当率の閾値以上である場合に、物体が時空間の制約を満たすと判定してもよい。
(9)上記(8)において、物体は人物であり、
計測データに基づいて時間の範囲を特定する条件は、人物の動きの種類を選択する情報(例えば種別1132-1及び選択1132-2)を含み、
条件に基づいて特定された時間の範囲は、計測データに基づいて特定された、選択された人物の動きが行われた期間(例えばピッチ1132-3の値に該当するピッチ1131-2の開始時刻1131-3及び終了時刻1131-4によって特定される期間)であってもよい。
(10)上記(9)において、計測データに基づいて時間の範囲を特定する条件は、人物の周期性のある動きの種類を選択する情報(例えば種別1132-1及び選択1132-2)と、周期性のある動き(例えば歩行など)が行われた期間を複数の時間の範囲に分割するために周期(例えばピッチ)の数の割合を指定する情報(例えばピッチ1132-3)とを含み、時間の範囲に対応する空間の範囲及び時空間該当率の閾値は、時間の範囲ごと(例えばピッチ1132-3の値ごと)に設定されてもよい。プロセッサは、計測データに基づいて、周期性のある動きが行われた期間(例えばピッチテーブル1130に格納された一人の人物の全ピッチのうち最初のピッチの開始時刻1131-3から最後のピッチの終了時刻1131-4までの期間)を、指定された周期の数の割合に応じて(例えば0~50%に相当する前半2ピッチの期間と50~100%に相当する後半2ピッチの期間などに)分割することによって、複数の時間の範囲を特定し、特定された時間の範囲ごとに、時空間該当率を計算してもよい。
上記(7)~(10)によれば、物体の動きに応じて適切に時間の範囲を特定することができるため、適切に解析対象であるかの判定を行うことができる。
(11)上記(1)において、物体は人物であってもよい。プロセッサは、人物の1以上の関節の位置(例えば骨格座標テーブル232の各関節の座標値)を物体の位置として抽出し、計測データから抽出された、解析対象であると判定された人物の1以上の関節の位置を、解析対象のデータ(例えば解析対象テーブル251)として出力してもよい。
(12)上記(11)において、撮影装置は、計測データとして深度データを取得する深度カメラであり、プロセッサは、深度データに基づいて人物の1以上の関節の位置を抽出してもよい。
(13)上記(11)において、撮影装置は、計測データとして可視光又は不可視光による映像データを取得するカメラであってもよい。プロセッサは、映像データに基づいて人物の1以上の関節の位置を抽出してもよい。
上記(11)~(13)によれば、解析対象の人物以外の人物が写りこんでいる可能性がある映像から、解析対象の人物を抽出することができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明のより良い理解のために詳細に説明したのであり、必ずしも説明の全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることが可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によってハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによってソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
また、制御線及び情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線及び情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
100 解析装置
101、111 プロセッサ
102、112 メモリ
103、113 記憶装置
104、114 ネットワークインターフェース
110 計測装置
115 入力装置
116 出力装置
117 撮影装置
120 ネットワーク

Claims (13)

  1. プロセッサと、記憶部と、を有する計測装置であって、
    前記記憶部は、撮影装置によって取得された時刻ごとの計測データと、時空間の制約と、を保持し、
    前記プロセッサは、
    前記時刻ごとの計測データから物体の位置を抽出し、
    前記物体が前記時空間の制約を満たすかを判定し、
    前記物体が前記時空間の制約を満たすかの判定の結果に基づいて、前記物体が解析対象かを判定し、
    前記物体は人物であり、
    前記プロセッサは、
    前記人物の1以上の関節の位置を前記物体の位置として抽出し、
    前記計測データから抽出された、前記解析対象であると判定された人物の前記1以上の関節の位置を、解析対象のデータとして出力することを特徴とする計測装置。
  2. 請求項1に記載の計測装置であって、
    前記時空間の制約は、時間の制約及び空間の制約を含み、
    前記プロセッサは、
    前記物体が前記時間の制約を満たすかを判定し、
    前記物体が前記空間の制約を満たすかを判定し、
    前記物体が前記時間の制約を満たすかの判定及び前記物体が前記空間の制約を満たすかの判定の結果に基づいて、前記物体が解析対象かを判定することを特徴とする計測装置。
  3. 請求項2に記載の計測装置であって、
    前記時間の制約は、時間の範囲を含み、
    前記プロセッサは、
    前記物体の位置が抽出された前記計測データに対する、前記時刻が前記時間の範囲に含まれる前記計測データの割合である時間該当率を計算し、
    前記時間該当率に基づいて、前記物体が前記時間の制約を満たすかを判定することを特徴とする計測装置。
  4. 請求項3に記載の計測装置であって、
    前記時間の制約は、前記時間該当率の閾値を含み、
    前記プロセッサは、前記時間該当率が前記時間該当率の閾値以上である場合に、前記物体が前記時間の制約を満たすと判定することを特徴とする計測装置。
  5. 請求項2に記載の計測装置であって、
    前記空間の制約は、前記撮影装置によって撮影される空間に含まれる空間の範囲を含み、
    前記プロセッサは、
    前記物体の位置が抽出された前記計測データに対する、前記物体の位置が前記空間の範囲に含まれる前記計測データの割合である空間該当率を計算し、
    前記空間該当率に基づいて、前記物体が前記空間の制約を満たすかを判定することを特徴とする計測装置。
  6. 請求項5に記載の計測装置であって、
    前記空間の制約は、前記空間該当率の閾値を含み、
    前記プロセッサは、前記空間該当率が前記空間該当率の閾値以上である場合に、前記物体が前記空間の制約を満たすと判定することを特徴とする計測装置。
  7. 請求項1に記載の計測装置であって、
    前記時空間の制約は、前記計測データに基づいて時間の範囲を特定する条件と、前記時間の範囲に対応する空間の範囲と、を含み、
    前記プロセッサは、前記条件に基づいて特定された時間の範囲内の前記計測データに対する、前記物体の位置が前記空間の範囲に含まれる前記計測データの割合である時空間該当率を計算し、
    前記時空間該当率に基づいて、前記物体が前記時空間の制約を満たすかを判定することを特徴とする計測装置。
  8. 請求項7に記載の計測装置であって、
    前記時空間の制約は、前記時空間該当率の閾値を含み、
    前記プロセッサは、前記時空間該当率が前記時空間該当率の閾値以上である場合に、前記物体が前記時空間の制約を満たすと判定することを特徴とする計測装置。
  9. 請求項8に記載の計測装置であって、
    前記物体は人物であり、
    前記計測データに基づいて時間の範囲を特定する条件は、人物の動きの種類を選択する情報を含み、
    前記条件に基づいて特定された時間の範囲は、前記計測データに基づいて特定された、前記選択された人物の動きが行われた期間であることを特徴とする計測装置。
  10. プロセッサと、記憶部と、を有する計測装置であって、
    前記記憶部は、撮影装置によって取得された時刻ごとの計測データと、時空間の制約と、を保持し、
    前記時空間の制約は、前記計測データに基づいて時間の範囲を特定する条件と、前記時間の範囲に対応する空間の範囲と、時空間該当率の閾値と、を含み、
    前記時空間該当率は、前記条件に基づいて特定された時間の範囲内の前記計測データに対する、物体の位置が前記空間の範囲に含まれる前記計測データの割合であり、
    前記プロセッサは、
    前記時刻ごとの計測データから物体の位置を抽出し、
    前記時空間該当率を計算し、前記時空間該当率が前記時空間該当率の閾値以上である場合に、前記物体が前記時空間の制約を満たすと判定し、
    前記物体が前記時空間の制約を満たすかの判定の結果に基づいて、前記物体が解析対象かを判定し、
    前記物体は人物であり、
    前記計測データに基づいて時間の範囲を特定する条件は、人物の動きの種類を選択する情報を含み、
    前記条件に基づいて特定された時間の範囲は、前記計測データに基づいて特定された、前記選択された人物の動きが行われた期間であり、
    前記計測データに基づいて時間の範囲を特定する条件は、人物の周期性のある動きの種類を選択する情報と、前記周期性のある動きが行われた期間を複数の前記時間の範囲に分割するために周期の数の割合を指定する情報とを含み、
    前記時間の範囲に対応する空間の範囲及び前記時空間該当率の閾値は、前記時間の範囲ごとに設定され、
    前記プロセッサは、前記時空間該当率を計算する手順において、
    前記計測データに基づいて、前記周期性のある動きが行われた期間を、前記指定された周期の数の割合に応じて分割することによって、前記複数の時間の範囲を特定し、
    前記特定された時間の範囲ごとに、前記時空間該当率を計算することを特徴とする計測装置。
  11. 請求項1に記載の計測装置であって、
    前記撮影装置は、前記計測データとして深度データを取得する深度カメラであり、
    前記プロセッサは、前記深度データに基づいて前記人物の1以上の関節の位置を抽出することを特徴とする計測装置。
  12. 請求項1に記載の計測装置であって、
    前記撮影装置は、前記計測データとして可視光又は不可視光による映像データを取得するカメラであり、
    前記プロセッサは、前記映像データに基づいて前記人物の1以上の関節の位置を抽出することを特徴とする計測装置。
  13. プロセッサと、記憶部と、を有する計測装置が実行する計測方法であって、
    前記記憶部は、撮影装置によって取得された時刻ごとの計測データと、時空間の制約と、を保持し、
    前記計測方法は、
    前記プロセッサが、前記時刻ごとの計測データから物体の位置を抽出する手順と、
    前記プロセッサが、前記物体が前記時空間の制約を満たすかを判定する手順と、
    前記プロセッサが、前記物体が前記時空間の制約を満たすかの判定の結果に基づいて、前記物体が解析対象かを判定する手順と、を含み、
    前記物体は人物であり、
    前記物体の位置を抽出する手順において、前記プロセッサは、前記人物の1以上の関節の位置を前記物体の位置として抽出し、
    前記計測方法は、さらに、前記プロセッサが、前記計測データから抽出された、前記解析対象であると判定された人物の前記1以上の関節の位置を、解析対象のデータとして出力する手順を含むことを特徴とする計測方法。
JP2019236325A 2019-12-26 2019-12-26 計測装置及び計測方法 Active JP7198196B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019236325A JP7198196B2 (ja) 2019-12-26 2019-12-26 計測装置及び計測方法
EP20905149.9A EP4083568A4 (en) 2019-12-26 2020-08-27 MEASURING DEVICE AND MEASURING METHOD
PCT/JP2020/032451 WO2021131159A1 (ja) 2019-12-26 2020-08-27 計測装置及び計測方法
CN202080056914.3A CN114222529B (zh) 2019-12-26 2020-08-27 计测装置及计测方法
US17/642,903 US20220366560A1 (en) 2019-12-26 2020-08-27 Measurement apparatus and measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019236325A JP7198196B2 (ja) 2019-12-26 2019-12-26 計測装置及び計測方法

Publications (2)

Publication Number Publication Date
JP2021104160A JP2021104160A (ja) 2021-07-26
JP7198196B2 true JP7198196B2 (ja) 2022-12-28

Family

ID=76575832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019236325A Active JP7198196B2 (ja) 2019-12-26 2019-12-26 計測装置及び計測方法

Country Status (5)

Country Link
US (1) US20220366560A1 (ja)
EP (1) EP4083568A4 (ja)
JP (1) JP7198196B2 (ja)
CN (1) CN114222529B (ja)
WO (1) WO2021131159A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005276010A (ja) 2004-03-26 2005-10-06 San Electronics Kk 画像センサ
WO2017130902A1 (ja) 2016-01-29 2017-08-03 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019121904A (ja) 2018-01-04 2019-07-22 富士通株式会社 不審者検出装置、不審者検出方法及び不審者検出用コンピュータプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288786A (ja) * 2001-03-26 2002-10-04 Sumitomo Electric Ind Ltd 広域渋滞判定方法、広域渋滞判定システム及び判定装置
WO2005050565A1 (ja) * 2003-11-20 2005-06-02 Matsushita Electric Industrial Co., Ltd. 移動物体検出装置及び移動物体検出方法
JP4257421B2 (ja) * 2003-11-28 2009-04-22 独立行政法人産業技術総合研究所 動作体運動データ分節処理装置。
CN100474339C (zh) * 2004-08-03 2009-04-01 松下电器产业株式会社 人物判定装置
KR20150004461A (ko) * 2013-07-02 2015-01-13 한양대학교 산학협력단 HY R-score: 깊이 영상을 이용한 환자 상태 평가 방법 및 장치
JP6341708B2 (ja) * 2014-03-17 2018-06-13 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
US20160278683A1 (en) 2015-03-24 2016-09-29 Fuji Xerox Co., Ltd. Standing position evaluation apparatus, standing position evaluation method, and non-transitory computer readable medium
US10121066B1 (en) * 2017-11-16 2018-11-06 Blast Motion Inc. Method of determining joint stress from sensor data
JP2017202236A (ja) 2016-05-13 2017-11-16 花王株式会社 歩行分析方法及び歩行分析装置
CN109919137B (zh) * 2019-03-28 2021-06-25 广东省智能制造研究所 一种行人结构化特征表达方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005276010A (ja) 2004-03-26 2005-10-06 San Electronics Kk 画像センサ
WO2017130902A1 (ja) 2016-01-29 2017-08-03 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019121904A (ja) 2018-01-04 2019-07-22 富士通株式会社 不審者検出装置、不審者検出方法及び不審者検出用コンピュータプログラム

Also Published As

Publication number Publication date
EP4083568A4 (en) 2023-12-06
US20220366560A1 (en) 2022-11-17
WO2021131159A1 (ja) 2021-07-01
EP4083568A1 (en) 2022-11-02
CN114222529B (zh) 2023-11-14
JP2021104160A (ja) 2021-07-26
CN114222529A (zh) 2022-03-22

Similar Documents

Publication Publication Date Title
US11682116B2 (en) Method and apparatus for determining volumetric data of a predetermined anatomical feature
US11048948B2 (en) System and method for counting objects
US9456131B2 (en) Video processing systems and methods
US20140300758A1 (en) Video processing systems and methods
US9355304B2 (en) Apparatus and method of determining facial expression type
KR101995383B1 (ko) 의료 영상에 대한 특징 순위에 기반하여 뇌질환을 판정하는 방법 및 이를 이용한 장치
JP2013223672A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
Mousse et al. Percentage of human-occupied areas for fall detection from two views
CN105095853A (zh) 图像处理装置及图像处理方法
US9220462B2 (en) Imaging sensor and method for biometric mapping of facial skin
Xie et al. Event-based stereo matching using semiglobal matching
JP6413310B2 (ja) 見守り装置、表示方法及びプログラム
JP7198196B2 (ja) 計測装置及び計測方法
Zhang et al. Comparison of OpenPose and HyperPose artificial intelligence models for analysis of hand-held smartphone videos
WO2019110382A1 (en) Device, system and method for detecting body movement of a patient
JP5852530B2 (ja) 移動体追跡表示装置、移動体追跡表示方法およびプログラム
WO2023013099A1 (ja) 計測システム、計測装置、計測データ処理方法及び計測データ処理プログラム
JP6856084B2 (ja) 情報処理装置、コンテンツ制御装置、情報処理方法、及びプログラム
WO2019237286A1 (zh) 一种筛选局部特征点的方法及装置
KR102118336B1 (ko) 공간 행동 의미 분석 시스템 및 공간 행동 의미 분석 방법
US20180096486A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
Wang et al. Visual bubble: Protecting privacy in wearable cameras
Ravi et al. ODIN: An OmniDirectional INdoor dataset capturing Activities of Daily Living from multiple synchronized modalities
Banerjee Computer Vision-Based Hand Tracking and 3D Reconstruction as a Human-Computer Input Modality with Clinical Application
Kondo et al. Video-based Detection of Freezing of Gait in Daily Clinical Practice in Patients with Parkinsonism

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221216

R150 Certificate of patent or registration of utility model

Ref document number: 7198196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150