JP7266599B2 - 患者の身体運動を検知するためのデバイス、システム及び方法 - Google Patents

患者の身体運動を検知するためのデバイス、システム及び方法 Download PDF

Info

Publication number
JP7266599B2
JP7266599B2 JP2020530635A JP2020530635A JP7266599B2 JP 7266599 B2 JP7266599 B2 JP 7266599B2 JP 2020530635 A JP2020530635 A JP 2020530635A JP 2020530635 A JP2020530635 A JP 2020530635A JP 7266599 B2 JP7266599 B2 JP 7266599B2
Authority
JP
Japan
Prior art keywords
motion
patient
images
image
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020530635A
Other languages
English (en)
Other versions
JP2021505264A (ja
JP2021505264A5 (ja
Inventor
ビシャール ラミチャネ
シャキス デヴィンダ フェルナンド
アドリエンヌ ハインリッヒ
デル ヘイデ エスター マルジャン ファン
トーマス マリア ファルク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2021505264A publication Critical patent/JP2021505264A/ja
Publication of JP2021505264A5 publication Critical patent/JP2021505264A5/ja
Application granted granted Critical
Publication of JP7266599B2 publication Critical patent/JP7266599B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明は、人間の動きを検知、位置特定及び分析するためのデバイスに関する。本発明は更に、前述のデバイスを組み込んだシステム及び対応する方法に関する。
患者の運動の自動検知及び分析は、病院において、又は自宅看護下において、患者の継続的な監視を可能とする。身体の動きの検知及び分析は、運動能力分析、セキュリティ面で重要なエリアの監視、マン-マシンインタフェースから、ベッドからの落下リスクの判定のような様々な臨床的用途まで広い範囲に適用される。動きの分析の更なる用途は、せん妄の検知によっても与えられる。せん妄を有する患者は、例えば、撮空模床やもがきのような典型的な運動を伴うはっきりとした運動パターンを呈示する。したがって、患者からせん妄などの特定の医学的状態を示す望ましくない運動が見られたとき、医師、看護士及び介護者は、即座に助けを提供するように迅速な警告を受け取ることができる。
患者の運動の検知及び分析は、コンピュータビジョン技術を使用し、カメラによって自動的に行われ得る。実際上、ビジョンをベースとした動き検知及び分析は、一般的に知られた技術である(例えば、J.K.Aggarwal及びQ.Caiによる「Human Motion Analysis:A Review」、Computer Vision an Image Understanding、Vol.73、428~440ページ、1999年を参照)。具体的には、深度カメラが、運動情報を撮影及び定量化するための信頼性の高い方法を提供する。これは、深度カメラ(すなわち、範囲撮像カメラ又は3Dカメラ)は、2次元的(2D)強度情報とは別に、シーンの深度情報も提供するという事実のおかげである。深度画像は、各ピクセルにおいて、フレームレートにおいてシーンのオブジェクトまでのカメラの距離を提供する。深度情報及び2D強度画像情報の両方によって、明るさレベル及びカメラの視点の変化に対して堅牢な、運動についての正確な推測が行われ得る。
単純な運動検知器システムは、概して、ビデオにおいて又は画像のストリームから取得された2つ以上の画像フレームの相関関係又はフレーム差分を使用した方法によって実現される。このコンテキストにおいて相関関係は、2つの連続的な画像フレームの間の(2次元的な)相関係数によって表現され、これは、各フレームにおけるピクセルの強度変化によって正規化された平均減算ピクセル単位強度乗算の和として定義される。相関係数の否定の値、例えば(1-相関係数)の値が高いと、概して、これは動きによってもたらされたものと考えられる。その一方で、フレーム差分は、連続的な画像フレームにおけるピクセル単位の強度差の絶対和である。ここでも、この差の値が高いと、これは動きによってもたらされたものと考えられる。
これらの方法を使用した運動検知器は、それ自体が運動の場所のような粒度の高い情報、又は特定のタイプの運動の発生についての堅牢な推測を与え得るものではない。同時的に発生した身体運動が存在する場合、例えば、患者の両方の手が同時に動いている場合、1つの特定の身体エリアからの運動情報は、全体的な運動検知信号から先験的には分離され得ない。運動検知信号のスペクトルが、例えば反復的な運動を検知するために、続いて更に分析されるとしても、得られるのは不正確な推測である。例えば、ベッドに横たわっている患者が左手で指をタッピングする動きを行う一方で、右手も動かしている場合、運動検知信号は、両方の手の運動からの寄与を含み、場所への割り当ては含まない。しかしながら、もしも運動検知信号が、左手における運動からの寄与だけを含むのであれば、対応する運動検知信号のスペクトル分析によって、左手の反復的運動が発生していると推測することが可能である。
今までのところ、運動の堅牢な検知及び詳細な分析は、撮影された画像におけるシーンの正確な表現を必要とする。オプティカルフローアルゴリズムのような動き推定アルゴリズムは、ピクセルレベルの解像度又は小ブロックレベルの解像度で動きを推定し、すなわち、このアルゴリズムは、画像におけるピクセル又はブロック単位で動きベクトルを生成する。しかしながら、動き推定アルゴリズムは、複雑で、実行には計算量においてコストがかかり、動き領域/タイプについての最終的な推測は、使用される動き推定器の精度によって制限される。これは、このアルゴリズムは、それらの細かな粒度に起因して、すなわち、特に臨床環境において取得されるビデオレコーディングの種類に関する高解像度に起因して、ノイズの影響を受けやすいという事実による。しかしながら、ノイズを含む動き推定は、異なる身体部位において同時的に発生する動きを区別することを非常に困難にしている。更には、運動の詳細な分析及び位置特定は、動き推定アルゴリズムとともに身体部位のセグメント化のような補助的情報を必要とする。特に同時発生的な運動を区別するために異なるクラスタにおける動きベクトルの空間的なセグメント化が使用されるとしても、この方法は非常に複雑で、簡単ではない。
米国特許第9232912(B2)号は、乳児が脳性麻痺などの医学的状態に罹患しているか又は罹患するリスクがあるかを判定する目的で、ビデオシステムを使用して乳児の1つ又は複数の手足の運動を測定するためのシステム及び方法を開示している。
Xiaodong Yangらによる「Recognizing Actions Using Depth Motion Maps-based Histograms of Oriented Gradients」、Proceedings of the 20th ACM International Conference on Multimedia、2012年1月1日、1057ページでは、深度マップのシーケンスから人間のアクションを認識する方法を開示しており、これは、アクション認識のための追加的な身体形状及び動き情報を提供する。この手法において、深度マップは、3つの直交する平面に投影され、深度動きマップ(DMM)を生成するために全域的動作が全体的なビデオシーケンスを通じて蓄積される。
Lian Binらによる「Specificity and Latent Correlation Learning for Action Recognition Using Synthetic Multi-View Data From Depth Maps」、IEEE Transactions on image processing、vol.26、no.12、2017年12月1日、5560~5574ページでは、深度マップからの合成マルチビューデータを使用したアクション認識の手法を開示している。具体的には、まず、深度マップからの3Dポイントクラウドを回転させることによって複数のビューが生成される。次いで、角錐状のマルチビュー深度動きテンプレートが、マルチビューアクション表現のために利用され、3Dにおいてマルチスケールの動き及び形状パターンを特徴付ける。
本発明の目的は、計算量が少ない手法によって、高い信頼性で身体運動を検知するための、及び異なる身体部位に対応する身体運動を分離するためのデバイス、システム及び方法を提供することである。
本発明の第1の態様において、患者の身体運動を検知するためのデバイスが提示され、このデバイスは、
患者を示す画像に対応する深度情報を備える画像データを取得し、異なる視点について患者の1つ又は複数の投影画像を生成するように構成された投影走査ユニットと、
1つ又は複数の投影画像において患者の動きを検知し、それぞれの投影画像において動きが検知されたか否かを示す1つ又は複数の動き検知信号を生成するように構成された動き検知ユニットと、
動き検知信号の1つ又は複数の組み合わせに基づいて患者の1つ又は複数の身体部位の身体運動を検知及び位置特定するように構成された分析ユニットとを備える。
本発明の更なる態様において、患者の身体運動を検知するためのシステムが提示され、このシステムは、
患者を示す画像に対応する深度情報を備える画像データを取得するように構成された深度カメラと、
取得された画像データに基づいて患者の身体運動を検知するためのデバイスとを備える。
本発明の別の態様において、患者の身体運動を検知するための方法が提示され、この方法は、
患者を示す画像に対応する深度情報を備える画像データを取得し、異なる視点について患者の1つ又は複数の投影画像を生成するステップと、
1つ又は複数の投影画像において患者の動きを検知し、それぞれの投影画像において動きが検知されたか否かを示す1つ又は複数の動き検知信号を生成するステップと、
動き検知信号の1つ又は複数の組み合わせに基づいて患者の1つ又は複数の身体部位の身体運動を検知及び位置特定するステップとを有する。
本発明のなおも更なる態様において、コンピュータプログラムであって、コンピュータプログラムがコンピュータ上で実行されたときに方法のステップを実行するプログラムコード手段を備える、コンピュータプログラムと、プロセッサによって実行されたときに本明細書において開示される方法を実行するコンピュータプログラム製品を内部に記憶する非一時的コンピュータ可読記録媒体とが提供される。
本発明の好ましい実施形態は、従属請求項において定められる。特許請求される方法、システム、コンピュータプログラム及び媒体は、特許請求されるシステム、具体的には従属請求項において定められ、本明細書において開示されるシステムと類似の及び/又は同一の好ましい実施形態を有することが理解されるべきである。
本発明は、シーン内での同時発生的な動きの、高い信頼性にもかかわらず単純な検知及び分離を可能とするデバイス、システム及び方法を提供するという着想に基づく。現在の動き検知システムは、シーン内での異なる場所において発生した動きを区別することができないか、又は、このような動きを区別できるとしても、高い経費をかけたときのみであるかのいずれかである。本発明は、巧緻な動き検知アルゴリズムを使用する代わりに、投影画像に適用される単純な二分法的な動き/非-動き検知アルゴリズムを使用して、身体の動きを検知し、特には、同時に動いている身体部位を区別することを目的とする。
提案されるシステムの特定の利点は、画像の1つの部分における運動が、別の1つ又は複数の部分における運動と同時発生するときに得られる。画像を表すポイントクラウド、すなわち、3次元的空間におけるデータポイントのセットが、異なる視点について投影されるとき、様々な画像の部分における運動は、異なる投影画像へと分離され得る。具体的には、画像のある部分における動きに関するポイントは、視野に応じて、隠れた領域に追いやられることがある。同様に、シーンの異なる部分が、異なる投影画像において、選択的に抑制又は強調されることがある。
例えば、第1及び第2の領域において動きを備える画像について、提案されるデバイスは、動きの第1の領域だけを撮影した1つ又は複数の投影画像と、動きの第2の領域だけを撮影した1つ又は複数の投影画像とを生成する。動きの第1の領域だけを撮影した異なる投影画像を組み合わせる一方で他の投影を除外することで、第1の領域における動きに対応する動き検知信号は、動きの第2の領域に対応する動き検知信号から分離される。これとは逆に、動きの第2の領域だけを撮影した投影画像を排他的に組み合わせることで、第2の領域に対応する動き検知信号がハイライトされる。このようにして、異なる視点に対応する投影画像を生成する投影走査を使用し、この投影画像における動き検知及び検知された動き検知信号の組み合わせによって、異なる画像領域における運動に属する動き検知信号を分離することが可能となる。それ故、異なる動きの領域は患者の異なる身体部位に属するので、異なる身体部位の運動が、別個に検知及び分析され得る。すなわち、同時発生的な運動が存在したとしても、特定の身体部位の運動が、正確に且つ個々に分析され得る。
概して、視点の数は、シーンにおいて動きが検知及び位置特定される解像度又は粒度に直接的に影響を与える。これは、投影画像がより異なるほど、ますます当てはまる。投影画像がより多く生成され、これらの投影画像の重複領域が小さいほど、シーンにおける動き検知の粒度は精細になる。したがって、広範囲の視点をカバーする投影走査における多数の小さなステップが、複雑な身体運動でさえも別個の投影画像に区別する柔軟性をもたらす。具体的には、この方法は、数多くの同時発生的な身体運動を区別することを可能とする。有利には、有意な運動分析を得るために、最小で3つの少なくとも部分的に異なる投影画像が必要とされる。更に有利には、投影画像は、単一の予め定められた身体部位に紐付けられる。例えば、第1の投影画像は患者の頭部を表し、第2及び第3の投影画像は、それぞれ患者の左腕及び右腕を表す。この制限は、同時発生的な動きの検知をより一層単純化する。
これとは別に、提案されるデバイスは、動き推定及び身体部位セグメント化情報を明確に必要とすることなしに、運動についての推測を可能とする。
ここで、本発明の要素及びその使用は、集中治療室(ICU)における患者の動作の運動検知及び分析の特定のコンテキストにおいて説明される。しかしながら、システムは、概して、運動分析が必要とされる任意の類似の用途において使用され得る。
デバイスの実施形態において、動き検知ユニットは、フレーム差分法及び/又は相関関係をベースとした方法を使用して、患者の動きを検知するように構成される。
フレーム差分法はフレーム減算とも呼ばれ、連続的な画像フレームの間の差分がチェックされる技術である。もしもピクセル又はボクセルが変化したなら、画像において何かが明らかに変化している。この画像変化を撮影されたシーンにおける動きに割り当てるために、多くの技術は、ノイズ又は照明の変化によってもたらされた変化をフィルタリングするための何らかのブラー又は閾値を用いる。具体的には、フレーム差分は、連続的な画像フレームにおけるピクセル単位の強度差の絶対和として定義される。この差の値がゼロでないとき、特には値が高いとき、これは動きによってもたらされたものと考えられる。
一方、相関関係をベースとした方法は、連続した画像フレームの2D又は3D相関係数、具体的にはピアソンの相関係数を使用する。この係数は、各フレームにおけるピクセル又はボクセルの強度変化によって正規化された平均減算ピクセル単位強度乗算の和として定義される。ここでも、相関係数の否定の値、例えば(1-相関係数)の値が高いと、これは動きによってもたらされたものと考えられる。相関係数及び/又はフレーム差分値について予め定められた閾値に基づき、動き検知ユニットは、画像において動きが検知されたか否かを示す。フレーム差分法及び相関関係をベースとした方法のどちらも単純であり、したがって計算量が少ない。
実際上は、どちらの方法も、互いに比較されるべき画像の間に差が見つからない限りにおいて投影画像に適用されるだけでよい。動き検知ユニットは画像において動きが存在するか、又は存在しないかを検知することのみを必要とし、この動きを位置特定する必要はないので、連続的な対応するピクセル又はボクセルに差が見つかったらすぐに、画像比較は停止してよい。
デバイスの別の実施形態において、分析ユニットは、ベッド位置及び/又は向き、カメラの場所、並びに身体の四肢に対応する検知された末端ポイントのうちの任意の1つを備える補助的情報を使用して身体運動を検知するように構成される。例えば、ベッド位置及び向き情報によって、各投影画像が、ベッド及び/又は患者の特定の側にそれぞれ先験的にリンクされ得る。この事前の情報は、分析ユニットによって使用され得る。例えば、ベッドが画像平面を幅方向に横切っている画像において、左から右への投影走査は、患者の矢状平面に平行な投影画像に対応する。しかしながら、もしもベッドが画像平面を長さ方向に横切っているなら、同じ投影走査は、頭部から足指への投影に対応する。例えば、前者の投影画像は患者の矢状方向の動きを検知及び区別するために使用され、後者の画像は頭部及び足指に対応する長手方向身体軸に沿った動きを分離するために使用される。補助的情報は、例えば、臨床的職員によってユーザインタフェースを介して提供され、又は、デバイス自体が、自動的コンピュータビジョンユニットを使用してこの情報自体を取得する。
デバイスの更なる実施形態において、分析ユニットは、動きの領域、動きの方向、動きの速度、動きの頻度、及び動きのパターンのうちの任意の1つを備える運動データを推測するように構成される。したがって、分析ユニットは、患者のどの身体部位が動いているか、及び運動がどのように起こっているかを推測する。例えば、分析ユニットは、患者が自身のベッドの縁部に向かって急速に動いていること、又は、身体の特定の部位を引っ掻いていることを推測する。動きの方向及び速度を推測することによって、分析ユニットは更に、運動のタイプ、例えば、この運動が滑らかであるか痙攣的であるかを分析する。具体的には、例えば周期的な手足の動きの疾患における震え又は四肢の運動などの周期的な動き及びその頻度が認識される。
デバイスのなおも別の実施形態において、分析ユニットは、検知された身体運動を、検知された身体運動と医学的状態との間のマッピングに基づいて、医学的状態に割り当てるように構成される。このことは、システムが、検知された動き検知信号から患者の医学的状態を導出することを可能とする。例えば、リントピッキング(lint-picking)行為は、分析ユニットによって、せん妄状態と関連付けられる。同様に、単収縮はてんかん発作と関連付けられる。
デバイスの別の実施形態において、分析ユニットは、予め定められた機能について訓練された及び/又は訓練されるように構成された1つ又は複数の機械学習モデルを備える。より単純な機能としては、画像においてどこで動きが発生したかについての確定があり、より複雑な機能としては、特定の画像領域において検知された動きの経過を追うことによるこの領域における周期的動きの確定がある。例えば、第1のモデルは、この動きの速度を推測するように訓練され、第2のモデルはこの動きの方向を推測するように訓練され、第3のモデルは、測定されたパラメータを対応する医学的状態に割り当てるように訓練される。より複雑な環境においては、機械学習モデルは、異なる動き検知信号を取得し、身体部位運動に関連する複数の予め定められた判定についての出力を生むように訓練される。例えば、機械学習モデルは、例えば、患者の頭部が動いているか、又は患者の左手若しくは右手が動いているかを推測する。この情報を推測するために、1つ又は複数の機械学習モデルは、補助的情報を使用し得る。典型的な運動、例えばせん妄における撮空模床は、運動特性がアノテーションされたこれらの1つ又は複数のモデルについての訓練セットに基づいて特定される。
デバイスの実施形態において、分析ユニットは、重み係数に従って動き検知信号を組み合わせるように構成される。可能な重み係数の1つは、検知された動き信号の強さであり、例えば、これはフレーム差分の大きさ又は相関係数の大きさによって与えられる。他の例示的な重み係数としては、画像の鮮明度、照明状態及び動き検知信号の強さに関連する他の画像品質係数又は他のマーカーなどがある。
デバイスの別の実施形態によると、投影走査ユニットは、異なる角度及び/又は異なるズームレベルから画像を取得するように構成される。この追加的な情報は、更なる投影画像を生成するために使用され、故に、より細かな粒度を達成することを助ける。異なるズームレベルにおける投影は、例えば、動いている領域への収束を助け、そこでの同時発生的な身体部位についてより詳細な情報を得る。このことは、例えば、指などのより小さな身体部位の動きの分析について特に妥当性がある。
なおも別の実施形態において、デバイスは、補助的情報を取得するため、及び/又は検知された身体運動と医学的状態との間のマッピングを取得するために分析ユニットによって提供された分析を提示するように構成されたユーザインタフェースを更に備え、及び/又は、デバイスは、画像、1つ又は複数の投影画像、運動データ、補助的情報、及び検知された身体運動と医学的状態との間のマッピングのうちの任意の1つを記憶するように構成された記憶ユニットを更に備える。
例えば、ユーザインタフェースは、検知された各動きの領域、速度及び方向を表示するディスプレイを備える。更には、動きパターン及び推論された医学的状態が示される。ユーザインタフェースは、臨床的職員によって、例えば、ベッド位置及び向きに関連する補助的情報をデバイスに提供するためにも使用され、次いで、この補助的情報は、分析ユニットによって特定の画像領域に関係付けられる。更には、ユーザインタフェースは、身体運動と医学的状態との間の関係に関連する情報をデバイスに提供するために使用される。具体的には、検知された身体運動と医学的状態との間のマッピングなどのユーザ入力は、分析ユニットの1つ又は複数の機械学習モデルを訓練するために使用される。
一方、記憶ユニットは、例えばテーブルの形態でこのようなマッピングを記憶し、分析ユニットはこのテーブルにアクセスする。運動データ及び対応する画像を記憶することは、再発性の病状を有する患者の治療に特に役立つ。疾病の進行についての結論を引き出すために、以前の入院での運動パターンが現在の動き行為と比較され得る。
別の実施形態において、デバイスの投影走査ユニットは、画像及び/又は1つ又は複数の投影画像の1つ又は複数のサブ画像を生成するように構成され、動き検知ユニットは、1つ又は複数のサブ画像から、それぞれのサブ画像において動きが検知されたか否かを示すサブ画像動き検知信号を検知するように構成される。サブ画像は、画像及び/又は投影画像をズームインすることによって及び/又はカットすることによって生成される。サブ画像及びこの画像における動きの検知は、特には、動き検知信号の領域を絞り込むため、すなわち、シーンにおける動きをより正確に位置特定するために使用される。サブ画像は、画像及び投影画像のそれぞれの組み合わせによっては動きの場所が曖昧さを残さずに特定され得ない領域に、特に妥当である。
更に別の実施形態において、投影走査ユニットは、異なる視点について1つ又は複数のサブ画像から1つ又は複数の投影サブ画像を生成するように構成され、動き検知ユニットは、1つ又は複数の投影サブ画像から、それぞれの投影サブ画像において動きが検知されたか否かを示す更なる動き検知信号を検知するように構成される。
デバイスのなおも別の実施形態において、投影走査ユニットは、深度情報を有するか又は有さない投影画像、サブ画像及び投影サブ画像のうちの任意の1つを生成するように構成される。
したがって、深度情報を備える画像データを取得した後、投影走査ユニットは、距離情報を保持する、すなわち、実際上3D画像を生成する視点又はこの情報を除外する視点といった、異なる視点に対応する異なる平面に、入力画像を投影する。単純な2次元的画像における動き検知は、概して、3次元画像における動き検知よりも労力が少ないため、深度情報を除外したときの方が動き検知はより効果的になる。3次元的画像、すなわち、更に深度情報を備える2次元的画像の2次元的平面上へのマッピングの種類は、正射投影、弱透視投影、及び透視投影のうちの任意の1つである。更に、例えば分析される必要のある投影画像がほんの数個である場合など、深度情報を省略することが効率的でない場合もある。
本発明のこれらの及び他の態様は、以下に説明される実施形態から明らかになり、これらを参照して明瞭にされるであろう。
本発明による患者の身体運動を検知するためのデバイスの実施形態の概略的な図である。 本発明による患者の身体運動を検知するための方法の実施形態のフローチャートである。 本発明による2つの連続的な時間点における患者の画像及びこの画像に対応する投影を図示する図である。 本発明によるデバイスの実施形態によって生成された画像の2つの異なる投影画像のうちの1つである。 本発明による患者の身体運動を検知するためのシステムの実施形態の概略的な図である。 ベッドに横たわっている患者の動きを検知、分析、及び位置特定するために使用される8つの異なる投影平面を示す図である。 本発明によるデバイスの実施形態によって生成される画像のフローチャートである。
図1は、本発明による患者の身体運動を検知するためのデバイス1の実施形態の概略的な図を図示する。デバイス1は、投影走査ユニット2と、動き検知ユニット3と、分析ユニット4とを備える。
深度情報5を備える画像データを使用して、投影走査ユニット2は、カメラが室内の他の場所でパンされた及び/又は位置特定されたかのように、異なる視点について対応する画像50を投影する。こうして、1つ又は複数の投影画像21が取得される。動き検知ユニット3は、これらの投影画像21、すなわち、対応する投影画像データの各々について、それぞれの投影画像21において動きが存在するか否かを二分法的判定として検知するように構成される。こうして投影画像21について得られた動き検知信号31は、分析ユニット4に渡される。分析ユニットにおいて、信号31は、シーンにおける身体運動をより詳細に検知するため、具体的には、この運動を位置特定し、分析するために任意の手法で組み合わされる。次いで、分析41の結果は、更なる処理に使用される。
図2は、本発明による患者の身体運動を検知するための方法の実施形態のフローチャートを図示する。
第1のステップにおいて、深度情報5を備える画像データが、深度カメラ6から受信される。この画像データは、例えば、ベッドにいる対象者を示す画像に対応する。データ5が与えられ、もしも画像において動きが発生したことが動き検知ユニット3の動き検知器30によって発見されたなら、投影走査ユニット2によって、異なる視点22に対応する異なる投影画像21の画像ストリームが生成される。異なる投影平面又は視点22は、初期カメラ平面から始まる個別の走査に基づいて生成される。初期カメラ平面について明示的な情報が使用できない他のシナリオにおいては、投影平面は、監視されるシーンの静的な情報、すなわち、床及び壁の向きのような補助的情報に基づいて選択される。視点22の全体的な範囲にわたって完全な走査を行うことも可能である。次のステップにおいて、生成された投影画像21は、動き検知器30を備える動き検知ユニット3に提供され、これは、もしも動きがあるなら、投影画像21の各々において動きを判定する。連続的な画像の相関関係又はフレーム差分に基づく単純な動き検知アルゴリズムが、これらの画像ストリームにおける動き/非-動き、すなわち動きがあるか又は動きがないかに関する判定を行うために使用される。故に、この動き検知は、計算量が少ない。結果として得られた動き検知信号31は、次いで、分析ユニット4において組み合わされ、分析される。動き検知信号31は二分法的な動き/非-動き信号、すなわち、それぞれの投影画像において動きが存在するか否かを投影ごとに示す二分法的信号であるが、分析ユニット4は、異なる投影画像ストリームからの動き検知判定を組み合わせて、運動についてより複雑な推論を行うことができる。画像において運動を位置特定することとは別に、分析ユニット4は、例えば、検知された動きを特定の身体部位に割り当て、動きの頻度を推測し、反復を認識する。シーンにおける動きの検知、位置特定及び分析は、規則的に、又は間隔をおいて行われる。
図3Aから図3Fは、本発明による、2つの連続的な時間点における患者の画像50及び画像50の対応する投影21を図示する。具体的には、図3A及び図3Bは、ベッドに横たわっている患者を上面図で図示し、図3C及び図3Dは、同じ患者を側面図で図示し、図3E及び図3Fは、このシーンを患者の頭部の背後のある角度から図示する。図3A、図3C及び図3Eは各々、同一の時間点におけるシーンを図示する。同じことが図3B、図3D及び図3Fにも当てはまるが、これらは全て、もっと後の時間点において撮影されている。図3A及び図3Bに図示された入力シーンはそれぞれ、エリア51及び52によってそれぞれマークされているように、患者の右手及び左手の両方に運動を含む。図3C及び図3Dから分かるように、側面図についての投影画像は、2つのエリアのうちのエリア51のみを撮影している。したがって、患者の右手の運動は見えているが、エリア52に対応する左手の運動は、この視野においては隠れている。一方、図3E及び図3Fにおいては、左手の運動、すなわち、エリア52は明瞭に見えているが、右手を含むエリア51は隠れている。したがって、図3C及び図3Dにおいて並びに図3E及び図3Fにおいてそれぞれ図示された投影によって、患者の手における同時発生的な運動は別個に視覚化されている。
図4A及び図4Bは、本発明によるデバイス1の実施形態によって生成された画像50の2つの異なる投影画像21を図示する。具体的には、図4A及び図4Bは、シーンの3次元的表現を形成するポイントの集合、すなわちポイントクラウドを図示する。投影の各ポイントは、その3つの座標x、y及びzによって特定される。視点は、平面によって、また、その平面に対する法線によって一意に特定される。深度情報を備える画像データに対応する画像は、別の視点についての深度情報を備える別の投影画像を取得するために、別の平面上に投影され得る。例えば、図4Aは、法線Nによって定められる平面に対応する視点から見た深度情報を備える画像、すなわち3次元的ポイントクラウドPを図示する。ポイントが投影されるべき視点の平面の法線はNである。これらの法線の間の角度が回転マトリクスRを定め、法線Nに対応する視点から見たときのポイントクラウドPは、P’=R*Pによって与えられる。Nによって定められる視点から視認できるポイントのセット、すなわち、深度情報P’を備える画像が、図4Bにおいて図示される。視点が異なるので、クラウドPにおいて視認できるポイントのうちのいくつかは、P’においては隠されている。具体的には、視点平面に近接したポイント及び(それらの)面が、同一の視点ラインにあるがそれぞれの投影平面から離れたポイント(及びそれらの面)をブロックする。図4Bは、3次元的投影画像として、すなわち、深度情報を備える投影画像として、動き検知ユニット3において既に使用されているが、投影走査ユニット2は、好ましくは、P’の保持されたポイントセットの2次元的投影、すなわち、深度情報を持たない投影画像を集めるために、この画像を更に処理する。実際上、3次元的画像の代わりに2次元的画像において動き信号を検知することは、著しく計算量を減少させる。使用される投影方法は、正射投影又は透視投影のいずれかである。正射投影は、遠くの物体は近くの物体よりも小さく見えることを無視しているので、透視投影が好ましい。この方法を使用して、最終的な2D画像が、
Figure 0007266599000001

Figure 0007266599000002

として取得され、ここで、座標x’、y’及びz’は深度情報P’を備える画像データにおけるポイントに対応し、fは任意の拡大係数であり、座標X’及びY’は、法線Nによって定められる視点平面における2D投影を表す。P’におけるポイントのx’、y’及びz’に対応する全てのポイントX’及びY’の集合は、投影画像として定められる。ポイントクラウド若しくは投影されたポイントクラウドにより接近した、又はポイントクラウド若しくは投影されたポイントクラウドからより離間した視点平面をシミュレートする変換ベクトルTを更に定めることも可能である。このようなズーミングを使用すると、異なる運動の分離にもつながる。
図5は、本発明による患者の身体運動を検知するためのシステム100の実施形態の概略的な図を図示する。システム100は、深度カメラ6と、投影走査ユニット2と、動き検知ユニット3と、分析ユニット4と、記憶ユニット7と、ユーザインタフェース8と、警告ユニット9と、自動的コンピュータビジョンユニット10とを備える。
このシナリオにおいて、カメラ6は、患者のベッドの真上に位置し、患者を患者の正面平面220に平行な方向から、すなわち、ベッドの上側面に平行な方向から眺めている。次いで、収集された画像データ5は、投影走査ユニット2に提供される。この実施形態において、投影走査ユニット2は、深度情報5を備える画像データに対応するように取得された画像50を、2つの投影平面210及び211に投影し、これらはどちらも患者の身体の矢状平面230に平行に、具体的には、左側及び右側に位置する。故に、この実施形態において生成された投影画像は、深度情報を有さない2次元的画像である。
患者の右手の運動のみを検知及び分析するために、動き検知は、平面210及び/又は平面210に近接した他の平面に投影された画像に適用される。ここで選択される平面(又はその近傍領域)は、ベッドの向き及びカメラの向きの情報に基づいて特定される。ベッド及びカメラの向きについてのこの補助的情報は、システム初期化によって使用可能となるか、ユーザインタフェース8を介してユーザによって提供されるか、又は、自動的コンピュータビジョンユニット10によって観察されたシーンの静的領域から導出される。右手における運動を検知するために平面210及びその近傍の他の平面を選択する際に、システム100は、暗黙的に運動領域の場所を特定する。提案されるシステム100は、明示的に運動の場所を検知することもできる。
例えば、患者の左手の運動は、平面211に対応する投影画像においてのみ撮影される。しかしながら、深度情報を備える画像50が平面210に投影されるとき、左手のポイントは隠れている。同様に、右手は、平面211に対応する投影画像においてのみ撮影される。したがって、異なる身体部位における運動についての動き情報は分離されている。更に、両方の手が動いている場合、平面210及び平面211からの組み合わされた動き検知信号が、左手及び右手の両方が動いているという情報を捕捉する。
分析ユニット4において、平面210及び211からもたらされる別個の動き情報信号はそれぞれ、例えばスペクトル分析によって更に分析され、周期性、持続期間などについての推測を行う。また、動き検知信号における動きパターンも、分析ユニット4によって見出される。
患者の運動に関連して獲得された情報、例えば、運動の場所、速度、持続期間は、次いで、記憶ユニット7に記憶された運動データと比較され得る。具体的には、運動データは、特定の疾患の動き特性及び動きパターンを備える。加えて、記憶ユニット7は、このデータを、関連付けられた医学的状態に関連するデータにマッピングとともに記憶する。
したがって、検知された動き検知信号31を記憶ユニット7からの動きデータと比較することによって、分析ユニット4が患者が疾患に苦しんでいることを発見すると、診断がユーザインタフェース8のディスプレイに表示される。ユーザインタフェース8のディスプレイは、ベッドサイド患者モニタ、看護士モニタ、及び/又は医師モニタである。
同様に、診断された医学的状態に応じて、警告ユニット9によって音響的、視覚的又は触覚的警告が医療スタッフに与えられ得る。このために、分析ユニット4は、診断された各医学的状態にリスクスコアを割り当て、予め定められたリスクスコア閾値が超過されたときには、医療スタッフに警告するように警告ユニット9に信号を与える。
リアルタイムの分析とは別に、分析ユニット4は、患者の運動行為の長期的な分析を提供するように構成される。所定の期間にわたって動き検知信号31を分析することによって、分析ユニット4は更に、患者の平均的動作並びに患者の動作の変化及び/又は傾向についての情報を推測する。例えば、せん妄の平均的持続期間は数時間であり、例えば実際上の例示的状況において約48時間である。故に、もしもせん妄患者が、対応する期間にわたって監視されれば、せん妄の診断の信頼性が増加され得る。更に、身体運動の検知は、継続的に行われる必要はなく、特定の時間点において、例えば睡眠時間に実施されればよい。
記憶ユニット7は更に、所定の期間について動き検知信号及び分析ユニット4による対応する分析41を記憶するように構成される。
図6は、ベッドに横たわっている患者の動きを検知、分析及び位置特定するために使用される8つの異なる投影平面を示す。元の画像において、患者のベッドは上から眺められている。後続の詳細な運動の位置特定は、平面212から219への元の画像の8つの異なる投影に紐付けられた動き検知判定に基づいて行われる。平面212から219からの動き検知判定が「y」、「y」、「n」、「n」、「n」、「y」、「y」、「n」であり、「y」が動きの検知を、「n」が非検知を示す場合、平面212、213、217及び218に対応する視点について、動きが検知される。前もって判定された患者の位置に対する視点の位置、すなわち、投影平面によって、動きの可能性のある2つの領域、つまり、第1には平面212及び213に対応する視点の交差領域、第2には平面212及び219についての視点の交差領域があることが推測され得る。これらの領域における動きについて更なる情報を集めるために、投影走査ユニット2は、元の画像からこれらの領域のサブ画像を生成し、サブ画像の更なる投影を生成する。
図7は、本発明によるデバイスの実施形態によって生成される画像のフローチャートを図示する。患者の指の運動を検知、位置特定及び分析するために、いくつかの投影画像240から246が生成される。
投影画像のシーケンスを使用して、より正確な運動領域の位置特定が、信頼性の高い運動検知及び運動タイプの推測に利用される。深度情報を備える画像データ5に対応する患者画像50を受信すると、投影走査ユニット2は、投影画像240、241及び242を生成し、これらの各々は、異なる視野から患者を示す。画像240は患者の頭部及び左腕を、画像241は患者の胴体及び左腕を、画像242は患者の左腕及び脚を示す。これらの投影された画像の各々において動きが検知された場合、分析ユニットは、投影の重複領域、すなわち、患者の腕を含む領域において検知された動きの場所を特定する。続いて、分析ユニット4は、運動の領域にズームインし、この領域からの情報がより一層詳細に捕捉される。この結果、画像50に対応する視野から見た左腕だけを示す画像243がもたらされる。画像データ5の品質に応じて、ズームイン画像243は、例えば、外部深度カメラからも取得される。検知された運動の領域に基づいて、更なる投影走査が適用され、画像244において患者の腕を患者の矢状平面に平行な平面から示し、画像245に示されるように患者の下半身における横断平面に平行な平面から示す。このことは、例えば、以前のステップにおいて運動が検知された制限的な領域においてより精細な投影走査を行うことによって、より精細な情報を得るという利益を提供する。もしも運動が投影画像245においてのみ検知されたなら、検知された動きは、画像244において隠れている領域において起こったはずであり、おそらくは胴体の近傍の患者の指のうちの1つである。次いで、指が更に監視され、分析ユニット4によって、運動はズームイン画像246において分析され得る。動いている指の特定は、スペクトル分析によって、及び画像における身体の四肢の場所のような補助的情報の使用によって支援される。この補助的情報は、分析ユニット4に提供され、投影平面をそれぞれの身体領域に紐付けるために使用される。もしも分析ユニット4が、指がせん妄に関連付けられたリントピッキング行為に似た動きをしていると判定したなら、医師又は介護者は即座に警告される。
要約すれば、提案されるシステムは、シーンの一部における運動の検知を可能とし、動き推定及び身体部位セグメント化情報を明確に必要とすることなしに、単純な動き検知アルゴリズムを使用して運動タイプについての推測を行う。同時発生的な運動があるとき、提案されるシステムは、異なる身体部位における運動を分離し、個別に分析することができる。
提案されるシステムは、カメラによる患者の監視のような用途のために使用され得る。このシステムは、ICUにおけるような一人の患者の監視環境において、又は、カメラの視界内に複数の患者が存在する一般病棟においてさえも使用され得る。身体全体の運動に基づいた全体的アクチグラフに加えて、せん妄検知システムのような臨床的用途においても、手及び脚のような特定の身体領域において検知された運動イベントの数、検知された撮空模床運動の数のような、より精細な情報から利益が得られる。
臨床的用途のシナリオの他に、提案されるシステムは、精細な粒度の運動情報が役立つ用途における動きの位置特定及び機能強化のために使用され得る。いくつか例示的用途としては、群衆の中での異常な行為の検知、ユーザのジェスチャーの認識、落下防止、歩行分析などがある。
本発明は、図面及び前述の説明において詳細に図示及び説明されたが、このような図示及び説明は、説明的又は例示的なものと見なされるべきであり、制限的なものと見なされるべきではない。本発明は、開示された実施形態に限定されるものではない。開示された実施形態に対する他の変形例が、図面、本開示及び添付の特許請求の範囲を検討することから、特許請求された本発明を実践するにあたり、当業者によって理解及び実行され得る。
特許請求の範囲において、「備える、有する」という語は、他の要素又はステップを排除するものではなく、単数形は、複数性を排除するものではない。単一の要素又は他のユニットが、特許請求の範囲において記載されたいくつかのアイテムの機能を果たし得る。特定の手段が、互いに異なる従属請求項において記載されているという単なる事実は、これらの手段の組み合わせが有利に使用され得ないことを示すものではない。
コンピュータプログラムは、他のハードウェアとともに又は他のハードウェアの一部として供給される光学的記憶媒体又は固体媒体などの適切な非一時的媒体上に記憶及び/又は分配されてよいが、インターネット又は他の有線若しくは無線遠隔通信システムを介してなど、他の形態で分配されてもよい。
特許請求の範囲における任意の参照記号は、範囲を限定するものと解釈されるべきではない。

Claims (15)

  1. 患者の身体運動を検知するためのデバイスであって、前記デバイスは、
    前記患者を示す画像に対応する深度情報を備える画像データを取得し、前記画像データを使用して、異なる視点について前記患者の少なくとも3つの投影画像を生成する投影走査ユニットと、
    前記投影画像において前記患者の動きを検知し、それぞれの投影画像において動きが検知されたか否かを示す少なくとも3つの動き検知信号を生成する動き検知ユニットと、
    前記動き検知信号の1つ又は複数の組み合わせに基づいて、前記患者の複数の身体部位の同時発生的な身体運動を検知位置特定及び分離する分析ユニットと
    を備える、デバイス。
  2. 前記動き検知ユニットは、フレーム差分法及び/又は相関関係をベースとした方法を使用して、前記患者の動きを検知する、請求項1に記載のデバイス。
  3. 前記分析ユニットは、ベッド位置及び/又は向き、カメラの場所、並びに身体の四肢に対応する検知された末端ポイントのうちの任意の1つを備える補助的情報を使用して身体運動を検知する、請求項1又は2に記載のデバイス。
  4. 前記分析ユニットは、動きの領域、動きの方向、動きの速度、動きの頻度、及び動きのパターンのうちの任意の1つを備える運動データを推測する、請求項1から3のいずれか一項に記載のデバイス。
  5. 前記分析ユニットは、検知された前記身体運動を、検知された前記身体運動と医学的状態との間のマッピングに基づいて、前記医学的状態に割り当てる、請求項に記載のデバイス。
  6. 前記分析ユニットは、予め定められた機能について訓練された及び/又は訓練されるように構成された1つ又は複数の機械学習モデルを備える、請求項1から5のいずれか一項に記載のデバイス。
  7. 前記分析ユニットは、重み係数に従って前記動き検知信号を組み合わせる、請求項1から6のいずれか一項に記載のデバイス。
  8. 前記投影走査ユニットは、異なる角度及び/又は異なるズームレベルから画像を取得する、請求項1から7のいずれか一項に記載のデバイス。
  9. 前記画像データ、前記投影画像、前記運動データ、補助的情報、及び検知された前記身体運動と前記医学的状態との間のマッピングのうちの任意の1つを記憶する記憶ユニットを更に備え、及び/又は、
    前記補助的情報を取得するため、及び/又は検知された前記身体運動と前記医学的状態との間のマッピングを取得するために前記分析ユニットによって提供された分析を提示するユーザインタフェースを更に備える、請求項に記載のデバイス。
  10. 前記投影走査ユニットは、前記画像及び/又は前記投影画像の1つ又は複数のサブ画像を生成し、前記動き検知ユニットは、前記1つ又は複数のサブ画像から、それぞれのサブ画像において動きが検知されたか否かを示すサブ画像動き検知信号を検知する、請求項1から9のいずれか一項に記載のデバイス。
  11. 患者の身体運動を検知するためのデバイスであって、前記デバイスは、
    前記患者を示す画像に対応する深度情報を備える画像データを取得し、前記画像データを使用して、異なる視点について前記患者の少なくとも3つの投影画像を生成する投影走査ユニットと、
    前記投影画像において前記患者の動きを検知し、それぞれの投影画像において動きが検知されたか否かを示す少なくとも3つの動き検知信号を生成する動き検知ユニットと、
    前記動き検知信号の1つ又は複数の組み合わせに基づいて、前記患者の1つ又は複数の身体部位の身体運動を検知及び位置特定する分析ユニットと、を備え、
    前記投影走査ユニットは、前記画像及び/又は前記投影画像の1つ又は複数のサブ画像を生成し、前記動き検知ユニットは、前記1つ又は複数のサブ画像から、それぞれのサブ画像において動きが検知されたか否かを示すサブ画像動き検知信号を検知し、
    前記投影走査ユニットは、異なる視点について前記1つ又は複数のサブ画像から1つ又は複数の投影サブ画像を生成し、前記動き検知ユニットは、前記1つ又は複数の投影サブ画像から、それぞれの投影サブ画像において動きが検知されたか否かを示す更なる動き検知信号を検知する、デバイス。
  12. 前記投影走査ユニットは、深度情報を有するか又は有さない、投影画像、サブ画像、及び投影サブ画像のうちの任意の1つを生成する、請求項1から11のいずれか一項に記載のデバイス。
  13. 患者の身体運動を検知するためのシステムであって、前記システムは、
    前記患者を示す画像に対応する深度情報を備える画像データを取得する深度カメラと、
    取得された前記画像データに基づいて前記患者の身体運動を検知するための、請求項1から12のいずれか一項に記載のデバイスと
    を備える、システム。
  14. 患者の身体運動を検知するための方法であって、前記方法は、
    前記患者を示す画像に対応する深度情報を備える画像データを取得し、前記画像データを使用して、異なる視点について前記患者の少なくとも3つの投影画像を生成するステップと、
    前記投影画像において前記患者の動きを検知し、それぞれの投影画像において動きが検知されたか否かを示す少なくとも3つの動き検知信号を生成するステップと、
    前記動き検知信号の1つ又は複数の組み合わせに基づいて前記患者の複数の身体部位の同時発生的な身体運動を検知位置特定及び分離するステップと
    を有する、方法。
  15. 患者の身体運動を検知するためのコンピュータプログラムであって、前記コンピュータプログラムがコンピュータ上で実行されたときに、請求項14に記載の方法のステップを前記コンピュータに実行させるためのプログラムコード手段を備える、コンピュータプログラム。
JP2020530635A 2017-12-06 2018-11-28 患者の身体運動を検知するためのデバイス、システム及び方法 Active JP7266599B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17205627.7 2017-12-06
EP17205627.7A EP3496037A1 (en) 2017-12-06 2017-12-06 Device, system and method for detecting body movement of a patient
PCT/EP2018/082767 WO2019110382A1 (en) 2017-12-06 2018-11-28 Device, system and method for detecting body movement of a patient

Publications (3)

Publication Number Publication Date
JP2021505264A JP2021505264A (ja) 2021-02-18
JP2021505264A5 JP2021505264A5 (ja) 2022-01-06
JP7266599B2 true JP7266599B2 (ja) 2023-04-28

Family

ID=60627464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020530635A Active JP7266599B2 (ja) 2017-12-06 2018-11-28 患者の身体運動を検知するためのデバイス、システム及び方法

Country Status (5)

Country Link
US (1) US11354809B2 (ja)
EP (2) EP3496037A1 (ja)
JP (1) JP7266599B2 (ja)
CN (1) CN111448589B (ja)
WO (1) WO2019110382A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2599816B (en) * 2017-06-16 2022-10-12 Soter Analytics Pty Ltd A system for monitoring core body movement
CN112435440B (zh) * 2020-10-30 2022-08-09 成都蓉众和智能科技有限公司 一种基于物联网平台的非接触式室内人员跌倒识别方法
US20230377279A1 (en) * 2022-05-19 2023-11-23 Disney Enterprises, Inc. Space and content matching for augmented and mixed reality

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120075464A1 (en) 2010-09-23 2012-03-29 Stryker Corporation Video monitoring system

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004107266A1 (en) 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
WO2005036371A2 (en) 2003-10-09 2005-04-21 Honda Motor Co., Ltd. Moving object detection using low illumination depth capable computer vision
KR100846498B1 (ko) 2006-10-18 2008-07-17 삼성전자주식회사 영상 해석 방법 및 장치, 및 동영상 영역 분할 시스템
GB2475104A (en) 2009-11-09 2011-05-11 Alpha Vision Design Res Ltd Detecting movement of 3D objects using a TOF camera
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8787663B2 (en) 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US9232912B2 (en) 2010-08-26 2016-01-12 The Regents Of The University Of California System for evaluating infant movement using gesture recognition
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US9408561B2 (en) 2012-04-27 2016-08-09 The Curators Of The University Of Missouri Activity analysis, fall detection and risk assessment systems and methods
DE102013017264A1 (de) 2013-10-17 2015-04-23 Dräger Medical GmbH Verfahren für die Überwachung eines Patienten innerhalb eines medizinischen Überwachungsbereichs
JP6666244B2 (ja) * 2013-11-27 2020-03-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 被検体のパルス移動時間及び/又はパルス波速度情報を獲得するためのデバイスおよび方法
DE102014206004A1 (de) * 2014-03-31 2015-10-01 Siemens Aktiengesellschaft Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung
EP3175426B1 (en) 2014-07-30 2019-09-25 Brainlab AG Online patient reconstruction and tracking for patient setup in radiation therapy using an iterative closest point algorithm
US11116423B2 (en) * 2014-10-13 2021-09-14 Koninklijke Philips N.V. Patient monitoring system and method
US10121062B2 (en) * 2014-11-03 2018-11-06 Koninklijke Philips N.V. Device, system and method for automated detection of orientation and/or location of a person
US10755817B2 (en) * 2014-11-20 2020-08-25 Board Of Regents, The University Of Texas System Systems, apparatuses and methods for predicting medical events and conditions reflected in gait
EP3226754B1 (en) 2014-12-02 2021-02-03 Brainlab AG Human body measurement using thermographic images
US10445886B2 (en) * 2017-05-30 2019-10-15 General Electric Company Motion-gated medical imaging

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120075464A1 (en) 2010-09-23 2012-03-29 Stryker Corporation Video monitoring system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LIANG BIN; ET AL,SPECIFICITY AND LATENT CORRELATION LEARNING FOR ACTION RECOGNITION USING SYNTHETIC MULTI-VIEW DATA FROM DEPTH MAPS,IEEE TRANSACTIONS ON IMAGE PROCESSING,米国,IEE SERVICE CENTER,2017年12月,VOL:26, NR:12,PAGE(S):5560 - 5574,DOI:10.1109/TIP.2017.2740122,MULTI-VIEW DATA FROM DEPTH MAPS
XIAODONG YANG; ET AL,RECOGNIZING ACTIONS USING DEPTH MOTION MAPS-BASED HISTOGRAMS OF ORIENTED GRADIENTS,PROCEEDINGS OF THE 20TH ACM INTERNATIONAL CONFERENCE ON MULTIMEDIA,米国,ACM PRESS,2012年,PAGE(S):1057-1060,https://dx.doi.org/10.1145/2393347.2396382

Also Published As

Publication number Publication date
JP2021505264A (ja) 2021-02-18
US20200342608A1 (en) 2020-10-29
EP3496037A1 (en) 2019-06-12
CN111448589A (zh) 2020-07-24
CN111448589B (zh) 2024-03-08
WO2019110382A1 (en) 2019-06-13
US11354809B2 (en) 2022-06-07
EP3721410A1 (en) 2020-10-14

Similar Documents

Publication Publication Date Title
EP3057487B1 (en) Device and method for obtaining a vital sign of a subject
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
KR101118654B1 (ko) 모션캡쳐 기반의 자세분석을 통한 재활 장치 및 이에 따른 재활 방법
JP6588978B2 (ja) 人の向き及び/又は位置の自動検出のための装置、システム、及び方法
Cuppens et al. Automatic video detection of body movement during sleep based on optical flow in pediatric patients with epilepsy
JP6666488B2 (ja) 画像抽出装置
JP7266599B2 (ja) 患者の身体運動を検知するためのデバイス、システム及び方法
RU2676147C2 (ru) Непрерывное автоматическое наблюдение за движениями пациента
KR20160032586A (ko) 관심영역 크기 전이 모델 기반의 컴퓨터 보조 진단 장치 및 방법
Van der Aa et al. Umpm benchmark: A multi-person dataset with synchronized video and motion capture data for evaluation of articulated human motion and interaction
JP2014236896A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP5832910B2 (ja) 画像監視装置
US20160259898A1 (en) Apparatus and method for providing reliability for computer aided diagnosis
Zhu et al. A computer vision-based system for stride length estimation using a mobile phone camera
US20230005154A1 (en) Apparatus, method and computer program for monitoring a subject during a medical imaging procedure
Heinrich et al. Body movement analysis during sleep based on video motion estimation
Albawendi et al. Video based fall detection using features of motion, shape and histogram
Jayawardena et al. Automated filtering of eye gaze metrics from dynamic areas of interest
Ahmedt-Aristizabal et al. Motion signatures for the analysis of seizure evolution in epilepsy
JP6939065B2 (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
Munn et al. FixTag: An algorithm for identifying and tagging fixations to simplify the analysis of data collected by portable eye trackers
WO2020022362A1 (ja) 動き検出装置、特性検出装置、流体検出装置、動き検出システム、動き検出方法、プログラム、および、記録媒体
JP6379899B2 (ja) 情報処理装置、脈波計測プログラムおよび脈波計測方法
JP6780639B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP2021076948A (ja) 人検出装置、人検出システム、人検出方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230418

R150 Certificate of patent or registration of utility model

Ref document number: 7266599

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150