JP2023505111A - 光学データからの生理学的測定のためのシステムおよび方法 - Google Patents

光学データからの生理学的測定のためのシステムおよび方法 Download PDF

Info

Publication number
JP2023505111A
JP2023505111A JP2022532066A JP2022532066A JP2023505111A JP 2023505111 A JP2023505111 A JP 2023505111A JP 2022532066 A JP2022532066 A JP 2022532066A JP 2022532066 A JP2022532066 A JP 2022532066A JP 2023505111 A JP2023505111 A JP 2023505111A
Authority
JP
Japan
Prior art keywords
face
optical data
camera
data
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022532066A
Other languages
English (en)
Other versions
JPWO2021111436A5 (ja
Inventor
ママン,デイビッド
ゲダリン,コンスタンティン
マルクゾン,マイケル
Original Assignee
ビナー.エーアイ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ビナー.エーアイ リミテッド filed Critical ビナー.エーアイ リミテッド
Publication of JP2023505111A publication Critical patent/JP2023505111A/ja
Publication of JPWO2021111436A5 publication Critical patent/JPWO2021111436A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02405Determining heart rate variability
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • A61B5/14557Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases specially adapted to extracorporeal circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02438Detecting, measuring or recording pulse rate or heart rate with portable devices, e.g. worn by the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14542Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue for measuring blood gases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30076Plethysmography

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Cardiology (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Investigating Or Analysing Materials By The Use Of Chemical Reactions (AREA)
  • Image Analysis (AREA)

Abstract

脈拍検出の精度を改善するための新しいシステムおよび方法が提供される。様々な態様は、限定はしないが、カメラ出力/入力の前処理、前処理されたカメラ信号からの脈動信号の抽出、それに続く脈動信号の事後フィルタリングを含み、より高い精度に寄与する。次いで、この改善された情報は、光学式脈拍検出のための不正確な方法では不可能である、HRV決定のような分析のために使用され得る。【選択図】図2

Description

本発明は、光学データから決定される生理学的測定のためのシステムおよび方法であり、特に、被験者のビデオデータからそのような測定を決定するためのそのようなシステムおよび方法に関するものである。
心拍数測定デバイスは、1870年代、最初の心電図(ECGまたはEKG)で、心臓の心周期(または心拍)による電気電圧変化を測定したことに遡る。EKG信号は、3つの主要成分で構成され、P波は心房脱分極を表し、QRS群は心室脱分極を表し、T波は心室再分極を表す。
第2の脈拍検出技術は、フォトプレチスモグラフィ(PPG)と呼ばれる組織の微小血管床における血液量変化を検出する光学測定である。PPG測定において、末梢脈波は、特徴的に、収縮期および拡張期ピークを示す。収縮期ピークは、左心室から身体の周辺に伝わる直接的な圧力波の結果であり、拡張期ピーク(または屈曲)は、下半身の動脈による圧力波の反射の結果である。
PPGベースのデバイスには、2つのカテゴリ、すなわち、接触ベースおよび遠隔(rPPG)がある。接触ベースのデバイスは、典型的には、指上で使用され、典型的には、赤色およびIR(赤外線)の波長での光反射を測定する。一方、遠隔PPGデバイスは、典型的には顔の皮膚表面から反射された光を測定する。ほとんどのrPPGアルゴリズムは、RGBカメラを使用し、IRカメラを使用しない。
PPG信号は、光-生物組織の相互作用に由来し、したがって、(多重)散乱、吸収、反射、透過および蛍光に依存する。接触ベースまたは遠隔PPG測定では、デバイスのタイプに応じて異なる効果が重要である。rPPG分析では、信号の便利な一次分解は、強度変動、散乱(生物組織と相互作用しなかった)、および脈動信号に対するものである。瞬時脈拍時間は、EKG測定におけるR時間またはPPG測定における収縮期ピークから設定される。EKG表記は、rPPG測定の収縮期ピークをR時間として参照するために使用される。瞬時心拍数は、連続するR時間の間の差、RR(n)=R(n)-R(n-1)から、1分あたりの心拍数で60/RR(n)として評価される。
RR間隔の変動は、恒常性に対する突然の身体的および心理的課題に心臓血管系がどのように調整されるかを示す。これらの変動の尺度は、心拍変動(HRV)と呼ばれる。
正確な光学式脈拍検出には、残念ながら様々な技術的問題がある。主な困難は、達成される信号対雑音比が低く、したがって脈拍数を検出できないことである。心拍変動(HRV)を決定することができるには、正確な脈拍検出が必要である。
HRVは、長期間にわたる脈拍数からの統計的パラメータの抽出である。従来、測定時間は0.5~24時間であるが、近年、研究者らは、かなり短い持続時間のHRVも抽出している。HRVから導出された統計情報は、例えばストレス推定に関するものを含む、被験者の健康状態の一般的な指標を提供し得る。
今回請求する本発明は、脈拍検出の精度を改善するための新しいシステムおよび方法を提供することによって、これらの困難を克服する。様々な態様は、限定はしないが、カメラ出力/入力の前処理、前処理されたカメラ信号からの脈動信号の抽出、それに続く脈動信号の事後フィルタリングなど、より高い精度に寄与する。次いで、この改善された情報は、光学式脈拍検出のための不正確な方法では不可能である、HRV決定のような分析のために使用され得る。
HRVパラメータは、交感神経系(SNS)および副交感神経系(PNS)の活動の状況に関連する。SNSおよびPNSは、個々のストレスレベルの指標であり、ストレス指標を推定することを可能にする。
少なくともいくつかの実施形態によれば、被験者から生理学的信号を取得するための方法が提供され、方法は、カメラを用いて被験者の顔から光学データを取得することと、前記カメラと通信する計算デバイスを用いて被験者の顔に関連するデータを選択するために光学データを分析することと、顔の皮膚から光学データを検出することと、経過した時間期間に達するまで光学データを収集することによって、光学データから時系列を決定し、次いで、経過した時間期間にわたって収集された光学データから時系列を計算することと、時系列から生理学的信号を計算することとを含む。
任意選択で、光学データは、ビデオデータを含み、前記光学データを前記取得することは、被験者の顔のビデオデータを取得することを含む。任意選択で、前記光学データを取得することは、前記カメラが携帯電話カメラを含むように、携帯電話カメラからビデオデータを取得することをさらに含む。任意選択で、前記計算デバイスは、モバイル通信デバイスを含む。任意選択で、前記携帯電話カメラは、前面カメラを含む。任意選択で、前記計算デバイスは、前記携帯電話カメラから物理的に分離されているが、前記携帯電話カメラと通信している。任意選択で、本明細書に記載の任意の方法またはその一部と組み合わせて、顔の前記皮膚から前記光学データを前記検出することは、複数の顔境界を決定することと、最も高い確率で顔境界を選択することと、顔からのビデオデータにヒストグラム分析を適用することとを含む。
任意選択で、前記複数の顔境界を前記決定することは、前記顔境界を決定するために、マルチパラメータ畳み込みニューラルネット(CNN)を前記ビデオデータに適用することを含む。任意選択で、本明細書に記載の任意の方法またはその一部と組み合わせて、前記光学データを前記取得することは、被験者の指の皮膚のビデオデータを取得することをさらに含む。任意選択で、前記ビデオデータを前記取得することは、指先を前記カメラに置くことによって、被験者の指先の皮膚のビデオデータを取得することを含む。任意選択で、前記指先のビデオデータを取得するための前記カメラは、携帯電話カメラを含む。任意選択で、前記携帯電話カメラは、背面カメラを含む。任意選択で、前記携帯電話カメラ上の前記指先は、光を提供するために前記携帯電話カメラに関連付けられたフラッシュを起動することをさらに含む。
任意選択で、本明細書に記載の任意の方法またはその一部と組み合わせて、顔の前記皮膚から前記光学データを前記検出することは、複数の顔または指先境界を決定することと、最も高い確率で顔または指先境界を選択することと、顔または指先からのビデオデータにヒストグラム分析を適用することとを含む。任意選択で、前記複数の顔または指先境界を前記決定することは、前記顔または指先境界を決定するために、マルチパラメータ畳み込みニューラルネット(CNN)を前記ビデオデータに適用することを含む。任意選択で、方法は、生理学的測定値を決定するために、顔および指先の画像からの分析されたデータを組み合わせることをさらに含み得る。
任意選択で、本明細書に記載の任意の方法と組み合わせて、生理学的信号を前記決定することは、メタデータを前記少なくとも1つの生理学的信号からの測定値と組み合わせることをさらに含み、前記メタデータは、被験者の体重、年齢、身長、生物学的性別、体脂肪パーセンテージ、および体筋パーセンテージのうちの1つ以上を含む。任意選択で、本明細書に記載の任意の方法と組み合わせて、前記生理学的信号は、ストレス、血圧、呼吸量、およびpSO2(酸素飽和度)からなる群から選択される。
少なくともいくつかの実施形態によれば、被験者から生理学的信号を取得するためのシステムが提供され、システムは、被験者の顔から光学データを取得するためのカメラと、前記カメラから光学データを受信するためのユーザ計算デバイスとを備え、前記ユーザ計算デバイスは、プロセッサと、複数の命令を記憶するためのメモリとを含み、前記プロセッサは、被験者の顔に関連するデータを選択するために光学データを分析し、顔の皮膚から光学データを検出し、経過した時間期間に達するまで光学データを収集することによって、光学データから時系列を決定し、次いで、経過した時間期間にわたって収集された光学データから時系列を計算し、時系列から生理学的信号を計算するための前記命令を実行する。任意選択で、前記メモリは、コードの定義されたネイティブ命令セットを記憶するように構成され、前記プロセッサは、前記メモリに記憶されたコードの定義されたネイティブ命令セットから選択された対応する基本命令を受信することに応答して、定義された基本動作セットを実行するように構成され、前記メモリは、被験者の顔に関連するデータを選択するために光学データを分析するためのネイティブ命令セットから選択された第1の組のマシンコードと、顔の皮膚から光学データを検出するためにネイティブ命令セットから選択された第2の組のマシンコードと、経過した時間期間に達するまで光学データを収集することによって、光学データから時系列を決定し、次いで、経過した時間期間にわたって収集された光学データから時系列を計算するためのネイティブ命令セットから選択された第3の組のマシンコードと、時系列から生理学的信号を計算するためのネイティブ命令セットから選択された第4の組のマシンコードとを記憶する。
任意選択で、顔の前記皮膚から前記光学データを前記検出することは、複数の顔境界を決定することと、最も高い確率で顔境界を選択することと、顔からのビデオデータにヒストグラム分析を適用することとを含み、前記メモリは、複数の顔境界を決定することを含む顔の前記皮膚から前記光学データを検出するためのネイティブ命令セットから選択された第5の組のマシンコードと、最も高い確率で顔境界を選択するためのネイティブ命令セットから選択された第6の組のマシンコードと、顔からのビデオデータにヒストグラム分析を適用するためのネイティブ命令セットから選択された第7の組のマシンコードとをさらに含む。
任意選択で、前記複数の顔境界を前記決定することは、前記顔境界を決定するために前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用することを含み、前記メモリは、前記顔境界を決定するために前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用するためのネイティブ命令セットから選択された第8の組のマシンコードをさらに含む。
任意選択で、本明細書に記載の任意のシステムまたはその一部と組み合わせて、前記カメラは、携帯電話カメラを含み、前記光学データは、前記携帯電話カメラからビデオデータとして取得される。任意選択で、前記計算デバイスは、モバイル通信デバイスを含む。任意選択で、前記携帯電話カメラは、背面カメラを含み、前記ビデオデータを取得するために、被験者の指先が前記カメラ上に配置される。任意選択で、システムは、前記光学データを取得するための光を提供するために、前記携帯電話カメラに関連付けられたフラッシュをさらに備える。
任意選択で、前記メモリは、複数の顔または指先境界を決定するためのネイティブ命令セットから選択された第9の組のマシンコードと、最も高い確率で顔または指先境界を選択するためのネイティブ命令セットから選択された第10の組のマシンコードと、顔または指先からのビデオデータにヒストグラム分析を適用するためのネイティブ命令セットから選択された第11の組のマシンコードとをさらに含む。
任意選択で、前記メモリは、前記顔または指先境界を決定するために、前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用するためのネイティブ命令セットから選択された第12の組の機械コードをさらに含む。任意選択で、システムは、前記プロセッサによって実行された前記命令に従って生理学的測定値を決定するために、顔および指先の画像からの分析されたデータを組み合わせることをさらに含む。任意選択で、本明細書に記載の任意のシステムまたはその一部と組み合わせて、システムは、生理学的測定値および/または信号を表示するためのディスプレイをさらに備える。任意選択で、前記ユーザ計算デバイスは、前記ディスプレイをさらに含む。
任意選択で、本明細書に記載の任意のシステムまたはその一部と組み合わせて、前記ユーザコンピューティングデバイスは、前記生理学的測定値および/または信号を送信するための送信機をさらに含む。任意選択で、本明細書に記載の任意のシステムまたはその一部と組み合わせて、生理学的信号を前記決定することは、メタデータを前記少なくとも1つの生理学的信号からの測定値と組み合わせることをさらに含み、前記メタデータは、被験者の体重、年齢、身長、生物学的性別、体脂肪パーセンテージ、および体筋パーセンテージのうちの1つ以上を含む。任意選択で、本明細書に記載の任意のシステムまたはその一部と組み合わせて、前記生理学的信号は、ストレス、血圧、呼吸量、およびpSO2(酸素飽和度)からなる群から選択される。
少なくともいくつかの実施形態によれば、被験者から生理学的信号を取得するためのシステムが提供され、システムは、被験者の指から光学データを取得するための背面カメラと、前記カメラから光学データを受信するためのユーザ計算デバイスとを備え、前記ユーザ計算デバイスは、プロセッサと、複数の命令を記憶するためのメモリとを含み、前記プロセッサは、被験者の顔に関連するデータを選択するために光学データを分析し、指の皮膚から光学データを検出し、経過した時間期間に達するまで光学データを収集することによって、光学データから時系列を決定し、次いで、経過した時間期間にわたって収集された光学データから時系列を計算し、時系列から生理学的信号を計算するための前記命令を実行する。任意選択で、システムは、本明細書に記載の任意のシステムまたはその一部をさらに備える。
少なくともいくつかの実施形態によれば、被験者から生理学的信号を取得するための方法が提供され、方法は、前記被験者から前記生理的信号を取得するために、本明細書に記載の任意のシステムを操作することを含む。
本発明の方法およびシステムの実装は、特定の選択されたタスクまたはステップを手動で、自動的に、またはそれらの組合せで実行または完了することを伴う。さらに、本発明の方法およびシステムの好ましい実施形態の実際の器具および機器によれば、いくつかの選択されたステップは、ハードウェアによって、または任意のファームウェアの任意のオペレーティングシステム上のソフトウェアによって、またはそれらの組合せによって実装され得る。例えば、ハードウェアとして、本発明の選択されたステップは、チップまたは回路として実装され得る。ソフトウェアとして、本発明の選択されたステップは、任意の適切なオペレーティングシステムを使用するコンピュータによって実行される複数のソフトウェア命令として実装され得る。いずれの場合も、本発明の方法およびシステムの選択されたステップは、複数の命令を実行するためのコンピューティングプラットフォームなどのデータプロセッサによって実行されるものと説明することができる。
本発明は、「コンピューティングデバイス」、「コンピュータ」、または「モバイルデバイス」に関して説明されるが、任意選択で、データプロセッサを特徴とする任意のデバイス、および1つ以上の命令を実行する能力を、限定はしないが、任意のタイプのパーソナルコンピュータ(PC)、サーバ、分散サーバ、仮想サーバ、クラウドコンピューティングプラットフォーム、携帯電話、IP電話、スマートフォン、またはPDA(パーソナルデジタルアシスタント)を含むコンピュータとして説明され得ることに留意されたい。互いに通信するこのようなデバイスのうちの任意の2つ以上は、任意選択で、「ネットワーク」または「コンピュータネットワーク」を含み得る。
本発明は、添付の図面を参照しながら、単に例として、本明細書に記載される。次に、図面を詳細に特に参照すると、示された詳細は、例として、本発明の好ましい実施形態の例示的な説明のためだけのものであり、本発明の原理および概念的態様の最も有用で容易に理解される説明であると考えられるものを提供するために提示されることが強調される。この点に関して、本発明の基本的な理解のために必要である以上に詳細に本発明の構造的詳細を示す試みはなされておらず、図面を用いてなされた説明は、本発明のいくつかの形態が実際にどのように実施され得るかを当業者に明らかにする。
ユーザのビデオデータを取得し、ビデオデータを分析して1つ以上の生体信号を決定するための例示的な非限定的な例示的なシステムを示す図である。 ユーザのビデオデータを取得し、ビデオデータを分析して1つ以上の生体信号を決定するための例示的な非限定的な例示的なシステムを示す図である。 信号分析を実行するための非限定的な例示的な方法を示す図である。 ユーザがアプリを使用して生物学的統計を取得できるようにするための非限定的な例示的な方法を示す図である。 ユーザがアプリを使用して生物学的統計を取得できるようにするための非限定的な例示的な方法を示す図である。 詳細な生物学的統計を作成するための非限定的な例示的なプロセスを示す図である。 ビデオデータを取得し、次いで、初期処理を実行するための、非限定的な例示的な方法を示す図である。 ビデオデータを取得し、次いで、初期処理を実行するための、非限定的な例示的な方法を示す図である。 ビデオデータを取得し、次いで、初期処理を実行するための、非限定的な例示的な方法を示す図である。 rPPGの脈拍数推定および決定のための非限定的な例示的な方法に関連する図である。 この方法のいくつかの結果に関連する図である。 HRVまたは心拍変動時間領域分析を実行するための非限定的な例示的な方法を示す図である。 心拍変動性またはHRV周波数領域を計算するための非限定的な例示的な方法を示す図である。
rPPG機構の重要な根底にある問題は、顔の画像が使用される場合、正確な顔検出および分析に適した正確な皮膚表面選択である。例えば、スマートフォンなどのモバイルデバイスの背面カメラで撮影された画像の場合など、指先の画像が使用される場合、同様の問題に遭遇する。今回請求する本発明は、ニューラルネットワーク方法に基づく顔、指、および皮膚の検出に関するこの問題を克服する。非限定的な例を以下に示す。好ましくは、皮膚選択のために、ヒストグラムベースのアルゴリズムが使用される。顔のみ(または代替的に指のみ)を含むビデオフレームの一部にこの手順を適用すると、各チャネル、赤、緑、および青(RGB)の平均値がフレームデータを構築する。結果として生じるビデオフレームに対して上記の手順を連続的に使用すると、RGBデータの時系列が取得される。RGB値によって表されるこれらの時系列の各要素は、フレームごとに取得され、タイムスタンプは、第1の要素の最初の発生からの経過時間を決定するために使用される。次いで、完全な時間窓(Lalgo)について、総経過時間が、脈拍数推定定義外部パラメータに使用される平均化期間に達すると、rPPG分析が開始する。可変のフレーム取得レートを考慮して、時系列データは、固定された所与のフレームレートに対して補間されなければならない。
補間後、より適切な3次元信号(RGB)を構築するために、前処理機構が適用される。このような前処理は、例えば、正規化およびフィルタリングを含み得る。前処理に続いて、平均脈拍数を推定することを含む、rPPGトレース信号が計算される。
次に図面を参照すると、図1Aおよび図1Bは、ユーザのビデオデータを取得し、ビデオデータを分析して1つ以上の生体信号を決定するための例示的な非限定的な例示的なシステムを示す。
図1Aは、サーバ118と通信するユーザ計算デバイス102を特徴とするシステム100を示す。ユーザ計算デバイス102は、好ましくは、コンピュータネットワーク116を介してサーバ118と通信する。ユーザ計算デバイス102は、好ましくは、ユーザ入力デバイス106を含み、ユーザ入力デバイス106は、例えば、マウス、キーボード、および/または他の入力デバイスなどのポインティングデバイスを含み得る。
さらに、ユーザ計算デバイス102は、好ましくは、ユーザの顔のビデオデータを取得するためのカメラ114を含む。カメラはまた、ユーザ計算デバイスとは別個であってもよい。任意選択で、カメラ114は、モバイルデバイスの背面カメラ、またはユーザの指、好ましくは、例えば指先など指の一部のビデオデータを取得するのに適した別のタイプのカメラを含む。ユーザ計算デバイス102は、そのようなカメラの一方または両方を含み得る。ユーザは、信号分析のタイプを決定し、信号分析を開始し、また信号分析の結果を受信するためのコマンドを提供するために、ユーザアプリインターフェース104と対話する。
例えば、ユーザは、ユーザ計算デバイス102を介して、カメラ114を別々に起動することによって、またはユーザアプリインターフェース104を介してコマンドを発行することによってそのようなデータを記録することによって、カメラ114を介してビデオデータの記録を開始し得る。
次に、ビデオデータは、好ましくは、サーバ118に送信され、サーバアプリインターフェース120によって受信される。次いで、信号分析エンジン122によって分析される。信号分析エンジン122は、好ましくは、ビデオ信号における顔の検出と、それに続く皮膚検出とを含む。代替または追加として、信号分析エンジン122は、好ましくは、ビデオ信号における指または指先のようなその一部の検出と、それに続く皮膚検出とを含む。以下で詳細に説明するように、この情報からパルス信号を取得することをサポートするために、好ましくは、様々な非限定的なアルゴリズムが適用される。次に、パルス信号は、好ましくは、HRVの決定をサポートするために、時間、周波数、および非線形フィルタに従って分析される。次いで、HRV決定からさらなる分析が行われてもよい。
ユーザ計算デバイス102は、好ましくは、プロセッサ110Aおよびメモリ112Aを特徴とする。サーバ118は、好ましくは、プロセッサ110Bおよびメモリ112Bを特徴とする。
本明細書で使用されるように、プロセッサ110Aまたは110Bなどのプロセッサは、一般に、特定のシステムの通信および/または論理機能を実装するために使用される回路を有するデバイスまたはデバイスの組合せを指す。例えば、プロセッサは、デジタル信号プロセッサデバイス、マイクロプロセッサデバイス、および様々なアナログ/デジタル変換器、デジタル/アナログ変換器、ならびに他のサポート回路および/または前述の組合せを含み得る。システムの制御および信号処理機能は、それぞれの能力に従って、これらの処理デバイスの間で割り振られる。プロセッサは、この非限定的な例では、メモリ112Aまたは112Bなどのメモリに記憶され得る、そのコンピュータ実行可能プログラムコードに基づいて1つ以上のソフトウェアプログラムを動作させる機能をさらに含み得る。本明細書で使用されるように、プロセッサは、例えば、コンピュータ可読媒体で実施される特定のコンピュータ実行可能プログラムコードを実行することによって、1つ以上の汎用回路にその機能を実行させることによる、および/または1つ以上の特定用途向け回路にその機能を実行させることによるなど、様々な方法で、ある機能を実行するように「構成」され得る。
任意選択で、メモリ112Aまたは112Bは、コードの定義されたネイティブ命令セットを記憶するように構成される。プロセッサ110Aまたは110Bは、メモリ112Aまたは112Bに記憶されたコードの定義されたネイティブ命令セットから選択された対応する基本命令を受信することに応答して、定義された基本動作セットを実行するように構成される。任意選択で、メモリ112Aまたは112Bは、被験者の顔に関連するデータを選択するために光学データを分析するためのネイティブ命令セットから選択された第1の組のマシンコードと、顔の皮膚から光学データを検出するためにネイティブ命令セットから選択された第2の組のマシンコードと、経過した時間期間に達するまで光学データを収集することによって、光学データから時系列を決定し、次いで、経過した時間期間にわたって収集された光学データから時系列を計算するためのネイティブ命令セットから選択された第3の組のマシンコードと、時系列から生理学的信号を計算するためのネイティブ命令セットから選択された第4の組のマシンコードとを記憶する。
任意選択で、メモリ112Aまたは112Bは、複数の顔境界を決定することを含む顔の前記皮膚から前記光学データを検出するためのネイティブ命令セットから選択された第5の組のマシンコードと、最も高い確率で顔境界を選択するためのネイティブ命令セットから選択された第6の組のマシンコードと、顔からのビデオデータにヒストグラム分析を適用するためのネイティブ命令セットから選択された第7の組のマシンコードとをさらに含む。
任意選択で、メモリ112Aまたは112Bは、前記顔境界を決定するために、前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用するためのネイティブ命令セットから選択された第8の組の機械コードをさらに含む。
さらに、ユーザ計算デバイス102は、信号分析の結果、発行されている1つ以上のコマンドの結果などを表示するためのユーザ表示デバイス108を特徴とし得る。
図1Bは、上述の機能がユーザ計算デバイス102によって実行されるシステム150を示す。図1Aまたは図1Bのいずれについて、ユーザ計算デバイス102は、携帯電話を含み得る。図1Bでは、前述した信号分析エンジンは、ここで、信号分析エンジン152としてユーザ計算デバイス102によって動作される。信号分析エンジン152は、図1Aの信号分析エンジンについて説明したものと同じまたは同様の機能を有し得る。図1Bでは、ユーザ計算デバイス102は、インターネット(図示せず)などのコンピュータネットワークに接続されてもよく、他の計算デバイスと通信してもよい。少なくともいくつかの実施形態では、機能のいくつかは、ユーザ計算デバイス102によって実行され、他の機能は、例えばサーバ(図1Bには図示せず、図1Aを参照)など別個の計算デバイスによって実行される。
図2は、信号分析を実行するための非限定的な例示的な方法を示す。プロセス200は、例えば、ビデオカメラ204を起動することによって、ブロック202でデータを取得するプロセスを開始することによって開始する。次いで、任意選択で、206で顔認識が実行され、まずユーザの顔の位置を特定する。これは、例えば、ディープラーニング顔検出モジュール208を介して、また追跡プロセス210を介して実行され得る。信号分析のための最も正確な結果を取得するために、好ましくは、ビデオデータはユーザの顔のものであるので、ユーザの顔の位置を特定することが重要である。追跡プロセス210は、連続特徴マッチング機構に基づく。特徴は、新しいフレームにおいて以前に検出された顔を表す。特徴は、フレーム内の位置に従って、CNN(畳み込みニューラルネットワーク)などの画像認識プロセスの出力から決定される。フレーム内に1つの顔のみが現れるとき、追跡プロセス210は、フレーム内の顔認識に簡略化することができる。
非限定的な例として、任意選択で、リアルタイム条件下で最新の精度を達成する顔検出のためにマルチタスク畳み込みネットワークアルゴリズムが適用される。これは、Liらによる出版物に紹介されたネットワークカスケードに基づく(Haoxiang Li, Zhe Lin, Xiaohui Shen, Jonathan Brandt, and Gang Hua. A convolutional neural network cascade for face detection. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2015)。
次に、212において、ユーザの顔の皮膚がビデオデータ内に位置する。好ましくは、皮膚選択のために、ヒストグラムベースのアルゴリズムが使用される。前述した顔検出アルゴリズムに従って決定された顔のみを含むビデオフレームの一部にこの手順を適用して、好ましくは、各チャネル、赤、緑、および青(RGB)の平均値を使用して、フレームデータが構築される。
代替または追加として、同じまたは同様のプロセスが、指、または指先などその一部の画像の分析に使用されてもよい。例えば、ビデオデータは、上記で説明したように、データブロックで取得されるが、指、または指先などその一部の画像のデータブロックで取得される。次いで、206において、顔認識のプロセスは、好ましくは、まず、ユーザの指またはその一部の位置を特定するように適合される。このプロセスは、例えば、適合された指または指部分検出モジュール(図示せず)を介して、また、異なる画像を介して指またはその一部を追跡するように適合された、適合された追跡プロセス(図示せず)を介して実行され得る。任意選択で、指先がモバイルデバイスのリアカメラに直接押し付けられる場合、追跡はあまり必要ではない場合があるが、好ましくは、指先認識が依然として実行される。いずれの場合においても、例えば、顔認識のための上記のプロセスについて説明したように、好ましくは、指先の皮膚の位置が特定される。また、好ましくは、指またはその一部の画像が分析される場合、好ましくは、例えば、顔認識のための上記のプロセスについて説明したように、その皮膚の位置が特定される。
結果として生じるビデオフレームに対して上記の手順を連続的に使用すると、RGBデータの時系列が取得される。そのRGB値を有する各フレームは、これらの時系列の要素を表す。各要素は、最初の発生から経過した時間に従って決定されたタイムスタンプを有する。収集された要素は、L個のアルゴ要素を有するスケーリングされたバッファ内にあるものとして説明され得る。フレームは、好ましくは、十分な要素が収集されるまで収集される。要素の数が十分であることは、好ましくは、総経過時間に応じて決定される。214のrPPG分析は、総経過時間が、脈拍数推定に使用される平均化期間に必要とされる時間の長さに達したときに開始する。収集されたデータ要素は、補間されてもよい。補間後、好ましくは、より適切な3次元信号(RGB)を構築するために、前処理機構が適用される。
214において、3次元信号から、特にRGBデータの要素から、PPG信号が作成される。例えば、脈拍数は、以下でより詳細に説明するように、単一の計算から、または複数の相互相関計算から決定され得る。次いで、これは、216で正規化され、フィルタリングされ、218でPSO、ECG、および呼吸を再構築するために使用され得る。220において、基本周波数が見つけられ、222において、心拍数、PSO、および呼吸数などの統計値が作成される。
図3Aおよび図3Bは、ユーザがアプリを使用して生物学的統計を取得できるようにするための非限定的な例示的な方法を示す。図3Aは、顔の光学画像のみを使用する非限定的な例示的な方法を示す。図3Bは、ユーザの指先のビデオデータを、例えば、前述したように、モバイルデバイスのリアカメラから分析するための、同様の、非限定的な例示的な方法を示す。任意選択で、両方の方法を組み合わせてもよい。
次に図面を参照すると、図3Aに示されるように、方法300において、ユーザは、302において、アプリに登録する。次に、304において、例えば、ユーザ計算デバイスに取り付けられるか、またはユーザ計算デバイスで形成されるように、画像がビデオカメラで取得される。ビデオカメラは、好ましくは、本明細書に記載されるようなRGBカメラである。
306で、画像内で、顔の位置が特定される。これは、ユーザ計算デバイス上で、サーバで、または任意選択で両方で実行され得る。さらに、このプロセスは、マルチタスク畳み込みニューラルネットに関して、前述したように実行され得る。次いで、RGB信号データにヒストグラムを適用することによって、皮膚検出が実行される。好ましくは、皮膚から反射された光に関連するビデオデータのみが、光パルス検出およびHRV決定のために分析される。
信号の時系列は、308において、例えば前述のように決定される。可変のフレーム取得レートを考慮して、好ましくは、時系列データは、固定された所与のフレームレートに対して補間される。補間手順を実行する前に、補間を実行することができるように、以下の条件を分析することが好ましい。第1に、好ましくは、フレームの数が分析されて、補間および前処理の後、rPPG分析のために十分なフレームがあることを検証する。
次に、1秒当たりのフレームが考慮され、ウィンドウ内の1秒当たりの測定されたフレームが最小閾値を上回ることを検証する。その後、フレーム間の時間ギャップは、もしあれば、それが、例えば0.5秒であり得る何らかの外部的に設定された閾値未満であることを保証するために分析される。
上記の条件のいずれかが満たされない場合、手順は、好ましくは、完全なデータリセットで終了し、最後の有効なフレームから再開し、例えば、上述のように304に戻る。
次に、ビデオ信号は、好ましくは、310において、補間に続いて前処理される。より適切な3次元信号(RGB)を構築するために、前処理機構が適用される。前処理は、好ましくは、各チャネルを総電力に正規化することと、(ローパスフィルタによって推定された)その平均値によってチャネル値をスケーリングし、1だけ減算することと、次いで、バターワースバンドパスIIRフィルタにデータを通過させることとを含む。
312において、統計情報が抽出される。次いで、314において、心拍が再構築される。316で呼吸信号が決定され、次いで、318で脈拍数が測定される。この後、320で血液酸化を測定する。
図3Bは、ユーザの指先のビデオデータを、例えば、前述したように、モバイルデバイスのリアカメラから分析するための、同様の、非限定的な例示的な方法を示す。このプロセスは、例えば、ユーザの顔に対して、前面カメラから十分なビデオデータを取り込むことができない場合に使用され得る。任意選択で、両方の方法を組み合わせてもよい。
方法340では、方法は、342で、ユーザの指先をカメラの上または近くに置くことによって開始する。カメラの近くにある場合、指先がカメラに見える必要がある。この配置は、例えば、モバイルデバイスにおいて、ユーザに、モバイルデバイスのリアカメラ上に指先を置かせることによって達成されてもよい。カメラは、指先の配置に対してすでに既知の幾何学的位置にあり、これは、正確なビデオデータを収集することに関して指先の正確な配置を促進する。任意選択で、モバイルデバイスのフラッシュは、十分な光を提供するために、より長いモード(「トーチ」モードまたは「フラッシュライト」モード)で使用可能にすることができる。フラッシュを可能にすることは、指先の正確なビデオデータを取得するのに十分な光がカメラによって検出されない場合に、自動的に実行されてもよい。
344において、指の画像、好ましくは指先の画像がカメラで取得される。次に、346において、画像内で、指、好ましくは指先の位置が特定される。このプロセスは、画像内の顔の位置に関して前述したように実行され得る。しかしながら、ニューラルネットが使用される場合、特に、指、好ましくは指先の位置を特定するように訓練される必要がある。光学データからのハンドトラッキングは、当技術分野で知られており、修正されたハンドトラッキングアルゴリズムを使用して、一連の画像内の指先を追跡することができる。
348において、皮膚は、画像の指、好ましくは指先部分内に見つけられる。この場合も、このプロセスは、一般に、皮膚の位置について上述したように、任意選択で指または指先の皮膚を調整して、実行することができる。信号の時系列は、350において、例えば、前述のように決定されるが、好ましくは、リアカメラを使用すること、および/またはカメラ上の指先皮膚の直接接触の任意の特性について調整される。可変のフレーム取得レートを考慮して、好ましくは、時系列データは、固定された所与のフレームレートに対して補間される。補間手順を実行する前に、補間を実行することができるように、以下の条件を分析することが好ましい。第1に、好ましくは、フレームの数が分析されて、補間および前処理の後、rPPG分析のために十分なフレームがあることを検証する。
次に、1秒当たりのフレームが考慮され、ウィンドウ内の1秒当たりの測定されたフレームが最小閾値を上回ることを検証する。その後、フレーム間の時間ギャップは、もしあれば、それが、例えば0.5秒であり得る何らかの外部的に設定された閾値未満であることを保証するために分析される。
上記の条件のいずれかが満たされない場合、手順は、好ましくは、完全なデータリセットで終了し、最後の有効なフレームから再開し、例えば、上述のように344に戻る。
次に、ビデオ信号は、好ましくは、352において、補間に続いて前処理される。より適切な3次元信号(RGB)を構築するために、前処理機構が適用される。前処理は、好ましくは、各チャネルを総電力に正規化することと、(ローパスフィルタによって推定された)その平均値によってチャネル値をスケーリングし、1だけ減算することと、次いで、バターワースバンドパスIIRフィルタにデータを通過させることとを含む。この場合も、このプロセスは、好ましくは、指先データに対して調整される。354において、統計情報が抽出され、その後、プロセスは、例えば、図3Aに関して上述したように、314から、心拍を再構築し、本明細書で説明した他の測定を実行するために進行し得る。
図4は、詳細な生物学的統計を作成するための非限定的な例示的なプロセスを示す。プロセス400において、ユーザビデオデータは、カメラ404により、ユーザ計算デバイス402を介して取得される。次いで、顔検出モデル406を使用して顔を見つける。例えば、複数の異なる顔境界について顔ビデオデータが検出された後、最高スコアの顔境界を除くすべてが廃棄されることが好ましい。その境界ボックスは、好ましくは、ユーザの顔に関連するデータが他のビデオデータから分離されるように、入力画像から切り取られる。皮膚ピクセルは、好ましくは、前述のように、ソフト閾値処理機構を有するヒストグラムベースの分類器を使用して収集される。残りのピクセルから、チャネルごとに平均値が計算され、410でrPPGアルゴリズムに渡される。このプロセスによって、皮膚の色を決定することができ、その結果、光学データに対するパルスの影響を、下にある皮膚の色の影響から分離することができる。プロセスは、408において、最高得点の顔境界ボックスに従って顔を追跡する。
上述のように、このプロセスは、指、または指先などその一部を検出するように適合されてもよい。好ましくは、指、または指先などその一部の境界を検出するために、境界検出アルゴリズムも使用される。例えば、指、または指先などその一部など、ユーザの解剖学的構造の関連部分を分離するために、バウンディングボックスを切り取ることなど後続のプロセス。例えば指先など、検出される解剖学的構造の関連部分が皮膚を含むと仮定すると、適合されたヒストグラムベースの分類器も使用されてもよい。408におけるプロセスは、ユーザがリアカメラに対して指先を押す場合、例えば、リアカメラに対して指先を直接配置した場合、追跡の必要性の低減に対応するように適合され得る。
次に、410において、PPG信号が作成される。前処理に続いて、rPPGトレース信号は、スケーリングされたバッファのL個のアルゴ要素を使用して計算される。この手順は次の通りである。平均脈拍数は、生の補間データ(CHROM様および射影行列(PM))から構築された2つのrPPGの異なる分析信号間の整合フィルタを使用して推定される。次いで、相互相関が計算され、その上で平均瞬間脈拍数が検索される。周波数推定は、追加のロックイン機構を有する非線形最小二乗(NLS)スペクトル分解に基づく。次いで、rPPG信号は、適応ウィーナーフィルタリングを適用するPM方法から導出され、初期推測信号は、瞬時脈拍周波数(νpr):sin(2πνprn)に依存する。さらに、信号再構築を強制するために使用される周波数領域における追加のフィルタ。最後に、以下でより詳細に説明する手順によって取得される瞬時RR値に適用される指数フィルタ。
次いで、412における信号プロセッサは、好ましくは、PPG信号に基づいて、いくつかの異なる機能を実行する。これらは、好ましくは、414でECG様信号を再構築し、416でHRV(心拍変動)パラメータを計算し、次いで418でストレス指標を計算することを含む。
HRVは、心拍間の時間間隔の変動の生理学的現象である。これは、拍動間間隔の変動によって測定される。使用される他の用語は、「周期長変動」、「RR(NN)変動」(ここで、Rは、ECG波のQRS群のピークに対応する点であり、RRは、連続するR間の間隔である)、および「心周期変動」を含む。
以下でより詳細に説明するように、時間領域、周波数領域、および非線形測定を使用して、24時間、準(~15分)、短期(ST、~5分)または短時間、および超短期(UST、<5分)のHRVを計算することが可能である。
加えて、420において、瞬間血圧が作成され、続いて、血圧統計422が作成され得る。任意選択で、424のメタデータがこの計算に含まれる。メタデータは、例えば、身長、体重、性別、または他の生理学的もしくは人口統計学的データに関連し得る。426において、PSО信号が再構築され、続いて、428においてPSО統計値が計算される。次いで、428における統計は、420および422に関して前述したように、さらなる血圧分析につながり得る。
任意選択で、430において、前述の信号プロセッサ412によって呼吸信号が再構築され、続いて、432で呼吸変動性が計算される。次いで、434において、好ましくは、呼吸数および体積が計算される。
420での瞬間血圧計算から、任意選択で、436で血圧モデルが計算される。血圧モデルの計算は、以前に決定された血圧、呼吸数および体積、PSО、または他の計算など、438における履歴データに従って影響を受けるか、または調整され得る。
図5A~図5Eは、ビデオデータを取得し、次いで、好ましくは補間、前処理、およびrPPG信号決定を含む初期処理を実行するための、非限定的な例示的な方法を、そのような初期処理からのいくつかの結果とともに示している。ここで図5Aを参照すると、プロセス500において、例えば前述のように、502においてビデオデータが取得される。
次に、504において、例えば前述のように、カメラチャネル入力バッファデータが取得される。次に、506において、一定のあらかじめ定義された獲得レートが決定されることが好ましい。例えば、一定のあらかじめ定義された獲得レートがΔt=1/fps~=33msに設定され得る。508において、各チャネルは、好ましくは、一定のあらかじめ定義された獲得レートで時間バッファに別々に補間される。このステップは、入力時間ジッタを除去する。補間手順がエイリアシング(および/または周波数折り返し)を追加するとしても、画像がカメラによって撮影されると、エイリアシング(および/または周波数折り返し)はすでに発生している。一定のサンプルレートに補間することの重要性は、それが、取得時間に従って心拍数の準定常性の基本的な仮定を満たすことである。補間に使用される方法は、例えば、3次エルミート補間に基づいてもよい。
図5B~図5Dは、スケーリング手順の異なる段階に関するデータを示す。カラーコーディングは、各チャネルの色に対応し、すなわち、赤は赤チャネルに対応し、以下同様である。図5Bは、補間後のカメラチャネルデータを示す。
図5Aに戻ると、510~514において、着色チャネル(vec(c))の各々を補間した後、脈動変調を強調するために前処理が実行される。前処理は、好ましくは、3つのステップを組み込む。510において、総電力に対する各チャネルの正規化が実行され、これにより、全体的な外部光変調によるノイズが低減される。
パワー正規化は、次式で与えられる。
Figure 2023505111000002
式中、-→c pは、パワー正規化されたカメラチャネルベクトルであり、-→cは、上述したような補間された入力ベクトルである。簡潔にするために、フレーム指標は、両側から除去されている。
次に、512において、スケーリングが実行される。例えば、そのようなスケーリングは、平均値iによって実行され、1だけ減算されてもよく、これは、静止光源およびその輝度レベルの影響を低減する。平均値は、セグメント長(Lalgo)によって設定されるが、このタイプの解決策は、低周波成分を高める可能性がある。あるいは、平均値によるスケーリングの代わりに、ローパスFIRフィルタによってスケーリングすることが可能である。
ローパスフィルタを使用することは、固有の待ち時間を追加し、これは、M/2フレームでの補償を必要とする。スケーリングされた信号は、次式で与えられる。
Figure 2023505111000003
式中、cs(n)は、フレームnの単一チャネルスケール値であり、bはローパスFIR係数である。簡潔にするために、チャネル色表記を上記の式から取り除いた。
514において、スケーリングデータは、バターワースバンドパスIIRフィルタを通過する。
このフィルタは、次のように定義される。
Figure 2023505111000004
スケーリング手順の出力は、-→sであり、各新しいフレームは、カメラチャネルごとに待ち時間を有する新しいフレームを追加する。簡潔にするために、フレーム指標nが使用されるが、実際には(ローパスフィルタのために)フレームn-M/2を指すことに留意されたい。
図5Cは、カメラ入力のパワー正規化、バンドパスフィルタの前のローパススケーリングデータのプロットを示す。図5Dは、バンドパスフィルタの前のパワースケーリングデータのプロットを示す。図5Eは、2つの正規化手順を使用した全被験者の平均絶対偏差の比較を示し、フィルタ応答は図5E-1として、および重み応答(平均による平均)は図5E-2として与えられている。図5E-1は、前処理フィルタの大きさおよび周波数応答を示す。青線はM=33タップローパスFIRフィルタを表し、赤線は3次IIRバターワースフィルタを示す。図5E-2は、rPPGトレースを平均化するために使用される64ロングハンウィンドウ重み応答を示す。
516において、CHROMアルゴリズムを適用して脈拍数を決定する。このアルゴリズムは、次式によって定義される2つの平面上に信号を投影することによって適用される。
Figure 2023505111000005
次いで、rPPG信号は、2つの間の差として取られる。
Figure 2023505111000006
式中、σ(…)は、シグナルの標準偏差である。2つの投影された信号は、それらの最大変動によって正規化されたことに留意されたい。CHROM法は、鏡面反射光を最小化するために導出される。
次に、518において、投影行列を適用して脈拍数を決定する。投影行列(PM)法では、信号は脈動方向に投影される。3つの要素が直交していなくても、驚くべきことに、この投影は、CHROMよりも良好な信号対雑音比を有する非常に安定した解を与えることが見出された。PM法を導出するために、RGB信号の強度、鏡面、および脈動の要素の行列要素が決定される。
Figure 2023505111000007
上記の行列要素は、例えば、de Haanおよびvan Leestによる論文から決定することができる(G de Haan and A van Leest. Improved motion robustness of remote-ppg by using the blood volume pulse signature. Physiological Measurement, 35(9):1913, 2014)。この論文では、動脈血からの(したがって脈からの)信号は、RGB信号から決定され、血液量スペクトルを決定するために使用することができる。
この例では、強度は1に正規化される。脈動方向への投影は、上記の行列を反転し、脈動に対応するベクトルを選択することによって見出される。これは以下を与える。
Figure 2023505111000008
520において、2つの脈拍数の結果は、rPPGを決定するために相互相関される。rPPGの決定は、図6に関してより詳細に説明される。
図6Aは、rPPGの脈拍数推定および決定のための非限定的な例示的な方法に関連し、図6B~図6Cは、この方法のいくつかの結果に関連する。この方法は、図5Aに関して上述したCHROMおよびPM rPPG方法の出力を使用して、脈拍数周波数νprを求める。この方法は、過去のLalgoフレームにわたる平均脈拍数を検索することを伴う。周波数は、ロックイン機構を適用した非線形最小二乗スペクトル分解を使用することによって、(CHROMとPMとの間の)整合フィルタの出力から抽出される。
次に図6Aを参照すると、方法600において、プロセスは、602において、CHROMとPM出力との間の整合フィルタを計算することによって開始する。整合フィルタは、単に、出力されるCHROM法とPM法との間の相関を計算することによって行われる。次に、604において、非線形最小二乗(NLS)周波数推定のコスト関数が、その高調波を有する周期関数に基づいて計算される。
Figure 2023505111000009

上式において、xはモデル出力であり、alおよびblは周波数成分の重みであり、lはその高調波次数であり、Lはモデルにおける次数であり、νは周波数であり、(n)は付加雑音成分である。次いで、606において、O(N log N)+O(NL)の計算複雑性で、Nielsenらで与えられたアルゴリズムを適応させることによって、対数尤度スペクトルが計算される(Jesper Kjaer Nielsen, Tobias Lindstrom Jensen, Jesper Rindom Jensen, Mads Graesboll Christensen, and Soren Holdt Jensen. Fast fundamental frequency estimation: Making a statistically efficient estimator computationally efficient. Signal Processing, 135:188 - 197, 2017)。
Nielsenらでは、周波数は、すべての高調波次数のうち最大ピークの周波数として設定される。この方法自体は、一般的な方法であり、この場合、帯域周波数パラメータを変更することによって適合させることができる。このモデルの固有の特徴は、高次の場合、低次の場合よりもコスト関数スペクトルの局所的最大ピークが多くなる。この機能は、ロックイン手順に使用される。
608において、ロックイン機構は、入力として、目標脈拍数周波数νtragetを得る。次いで、610において、この方法は、次数l=Lのコスト関数スペクトルのすべての局所的最大ピーク振幅(Ap)および周波数(νp)を見つける。局所的最大値について、以下の関数が推定される。
Figure 2023505111000010
この関数は、信号強度と目標周波数からの距離との間のバランスをとる。610において、出力脈拍数は、上記関数f(Ap,νp,νtraget)を最大化する局所的ピークνpとして設定される。
図6Bおよび図6Cは、例示的な実行の例示的な再構築されたrPPGトレース(青線)を示す。赤丸はピークR時間を示す。図6Bは、時間t=0sでの実行開始から時間t=50sまでのトレースを示す。図6Cは、トレースのズームを示し、ミリ秒単位のRR間隔時間も示す。
次に、612~614において、平均脈拍周波数(νpr)の周りの2つの動的フィルタ、ウィナーフィルタおよびFFTガウスフィルタで、瞬間的なrPPG信号がフィルタリングされる。612において、ウィナーフィルタが適用される。所望のターゲットはsin(2πνprn)であり、nは指数(時間を表す)である。614において、FFTガウスフィルタは、νprの周りの信号をクリーンにすることを目的とし、したがって、σgを幅とする、形式
Figure 2023505111000011
のガウス形状が使用される。名前が示唆するように、フィルタリングは、信号をその周波数領域(FFT)に変換し、それにg(ν)を乗算し、時間領域に変換して戻し、実部成分を取ることによって行われる。
上記手順の出力は、平均脈拍数νprを有する長さLalgoのフィルタリングされたrPPGトレース(pm)である。この出力は、観察されたビデオフレームごとに取得され、パルスの重なり合う時系列を構築する。これらの時系列は、HRV処理に適した平均最終rPPGトレースを生成するために平均化されなければならない。これは、Wangらによる論文からの以下の式(nは時間を表す)を使用して、フィルタリングされたrPPG信号(pm)の重複および加算を使用して行われる(W. Wang, A. C. den Brinker, S. Stuijk, and G. de Haan. Algorithmic principles of remote ppg. IEEE Transactions on Biomedical Engineering, 64(7):1479-1491, July 2017)。

t(n-Lalgo+l)=t(n-Lalgo+l)+w(l)pm(l) (13)

式中、lは0とLalgoとの間の実行指標であり、w(i)は出力トレースの構成および待ち時間を設定する重み関数である。次いで、結果として得られるピーク(収縮期ピークを表す最大値)を取得することにより、いわゆるRR間隔を時間的距離として構築することが可能である。一連のRR間隔を使用することにより、時間領域と周波数領域の両方における統計的測定値としてHRVパラメータを取り出すことが可能である。
図7および図8は、例えば呼吸数(RR)を計算するなど、上記の情報を提供するために使用することができる、様々なパラメータの統計的尺度を作成するための方法に関する。表は、HRVパラメータの標準セットに関連し、異なる時間期間に集約されたRR間隔から直接計算される。これらのパラメータのほとんどは、時間におけるHR変動の統計的提示を指す。
図7は、HRVまたは心拍変動時間領域分析を実行するための非限定的な例示的な方法を示す。方法700に示されるように、702において、処理されたビデオ信号が取得される。次いで、703で、心拍数(HR)を決定するために、処理されたビデオ信号が計算される。
704で、SDRRが計算される。706で、PRR50が計算される。708で、RMSSDが計算される。710で、三角形が計算される。712で、TINNが計算される。714で、HRV心拍変動時間領域が計算される。
好ましくは、716で、ステップ702~712が繰り返される。718で、SDARRが計算される。720で、SDRRIが計算される。任意選択で、722で、ステップ714~720が繰り返される。次いで、任意選択で、724で、ステップ702~704が繰り返される。最後に、任意選択で、726で、ステップ708~714が繰り返される。
HRV時間領域尺度の頭字語の意味を以下に説明する。
Figure 2023505111000012
以下のパラメータ、SDRR、RMSSD、三角形(HRV三角指標)、およびTINNは、F.ShafferおよびJ.P.Ginsbergで提供される情報に従って計算され得(An Overview of Heart Rate Variability Metrics and Norms, Front Public Health.2017;5:258)、本明細書で完全に記載されるかのように、参照により本明細書に組み込まれる。
以下のパラメータ、HRV時間領域は、Umetaniらで提供される情報に従って計算され得る(Twenty-four hour time domain heart rate variability and heart rate: relations to age and gender over nine decades, J Am Coll Cardiol. 1998 Mar 1;31(3):593-601)。
以下のパラメータ、SDRRI(SDRR指標)、SDARRおよびpRR50は、O.Murrayで提供される情報に従って計算され得る(The Correlation Between Heart Rate Variability and Diet, Proceedings of The National Conference On Undergraduate Research (NCUR) 2016, North Carolina)。
図8は、心拍変動性またはHRV周波数領域を計算するための非限定的な例示的な方法を示す。方法800では、802で前述したように、処理されたビデオ信号が取得される。803で、心拍数が、前述したように計算される。804で、ULFが計算される。806で、VLFが計算される。808で、LFピークが計算される。
810で、LF電力が計算される。812で、HFピークが計算される。814で、HF電力が計算される。816で、LF対HFの比が計算される。814で、HRVまたは心拍変動周波数が計算される。任意選択で、820で、ステップ802~818が、第1の間隔で繰り返される。次いで、任意選択で、822で、ステップ802~808が、第2の間隔で繰り返される。
HRV周波数領域尺度の頭字語の意味を、以下でより詳細に説明する。
Figure 2023505111000013
追加または代替として、HRVを計算するために、様々な非線形尺度が決定され得る。
Figure 2023505111000014
以下のパラメータ、ULF、VLF、LFピーク、LF電力、HFピーク、HF電力、LF/HFおよびHRV周波数は、F.ShafferおよびJ.P.Ginsbergによって前述した論文に提供される情報に従って計算され得る。
明確にするために、別々の実施形態の文脈で説明される本発明の特定の特徴は、単一の実施形態において組み合わせて提供されてもよいことが理解される。逆に、簡潔にするために、単一の実施形態の文脈で説明される本発明の様々な特徴は、別々に、または任意の適切な部分組合せで提供されてもよい。
本発明をその特定の実施形態に関連して説明してきたが、多くの代替、修正、および変形が当業者には明らかであろうことは明らかである。したがって、本発明は、添付の特許請求の範囲の趣旨および広い範囲内に入るそのような代替、修正、および変形のすべてを包含するものとする。本明細書において言及されるすべての刊行物、特許および特許出願は、各個々の刊行物、特許または特許出願が、参照により本明細書に組み込まれるように具体的かつ個別に示されたかのように、その全体が本明細書に参照により組み込まれる。加えて、本出願における任意の参照の引用または特定は、そのような参照が本発明の従来技術として利用可能であることを認めるものと解釈されないものとする。

Claims (37)

  1. 被験者から生理学的信号を取得するための方法であって、カメラを用いて前記被験者の顔から光学データを取得することと、前記カメラと通信する計算デバイスを用いて前記被験者の前記顔に関連するデータを選択するために前記光学データを分析することと、前記顔の皮膚から光学データを検出することと、経過した時間期間に達するまで前記光学データを収集することによって、前記光学データから時系列を決定し、次いで、前記経過した時間期間にわたって前記収集された光学データから前記時系列を計算することと、前記時系列から前記生理学的信号を計算することとを含む方法。
  2. 前記光学データが、ビデオデータを含み、前記光学データを前記取得することが、前記被験者の前記顔のビデオデータを取得することを含む、請求項1に記載の方法。
  3. 前記光学データを前記取得することが、前記カメラが携帯電話カメラを含むように、携帯電話カメラからビデオデータを取得することをさらに含む、請求項2に記載の方法。
  4. 前記計算デバイスが、モバイル通信デバイスを含む、請求項3に記載の方法。
  5. 前記携帯電話カメラが、前面カメラを含む、請求項4に記載の方法。
  6. 前記計算デバイスが、前記携帯電話カメラから物理的に分離されているが、前記携帯電話カメラと通信している、請求項3に記載の方法。
  7. 前記顔の前記皮膚から前記光学データを前記検出することが、複数の顔境界を決定することと、最も高い確率で前記顔境界を選択することと、前記顔からのビデオデータにヒストグラム分析を適用することとを含む、請求項1~6のいずれか一項に記載の方法。
  8. 前記複数の顔境界を前記決定することが、前記顔境界を決定するために、マルチパラメータ畳み込みニューラルネット(CNN)を前記ビデオデータに適用することを含む、請求項7に記載の方法。
  9. 前記光学データを前記取得することが、前記被験者の指の皮膚のビデオデータを取得することをさらに含む、請求項1~8のいずれか一項に記載の方法。
  10. 前記ビデオデータを前記取得することが、指先を前記カメラに置くことによって、前記被験者の前記指先の前記皮膚のビデオデータを取得することを含む、請求項9に記載の方法。
  11. 前記指先のビデオデータを取得するための前記カメラが、携帯電話カメラを含む、請求項10に記載の方法。
  12. 前記携帯電話カメラが、背面カメラを含む、請求項11に記載の方法。
  13. 前記携帯電話カメラ上の前記指先が、光を提供するために前記携帯電話カメラに関連付けられたフラッシュを起動することをさらに含む、請求項11または12に記載の方法。
  14. 前記顔の前記皮膚から前記光学データを前記検出することが、複数の顔または指先境界を決定することと、前記最も高い確率で前記顔または指先境界を選択することと、前記顔または指先からのビデオデータにヒストグラム分析を適用することとを含む、請求項1~13のいずれかに記載の方法。
  15. 前記複数の顔または指先境界を前記決定することが、前記顔または指先境界を決定するために、前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用することを含む、請求項14に記載の方法。
  16. 前記生理学的測定値を決定するために、前記顔および指先の画像からの分析されたデータを組み合わせることをさらに含む、請求項6~15のいずれか一項に記載の方法。
  17. 前記生理学的信号を前記決定することが、メタデータを前記少なくとも1つの生理学的信号からの測定値と組み合わせることをさらに含み、前記メタデータが、前記被験者の体重、年齢、身長、生物学的性別、体脂肪パーセンテージ、および体筋パーセンテージのうちの1つ以上を含む、請求項1~16のいずれか一項に記載の方法。
  18. 前記生理学的信号が、ストレス、血圧、呼吸量、およびpSO2(酸素飽和度)からなる群から選択される、請求項1~17のいずれか一項に記載の方法。
  19. 被験者から生理学的信号を取得するためのシステムであって、前記被験者の顔から光学データを取得するためのカメラと、前記カメラから光学データを受信するためのユーザ計算デバイスとを備え、前記ユーザ計算デバイスが、プロセッサと、複数の命令を記憶するためのメモリとを含み、前記プロセッサが、前記被験者の前記顔に関連するデータを選択するために前記光学データを分析し、前記顔の皮膚から光学データを検出し、経過した時間期間に達するまで前記光学データを収集することによって、前記光学データから時系列を決定し、次いで、前記経過した時間期間にわたって前記収集された光学データから前記時系列を計算し、前記時系列から前記生理学的信号を計算するための前記命令を実行する、システム。
  20. 前記メモリが、コードの定義されたネイティブ命令セットを記憶するように構成され、前記プロセッサが、前記メモリに記憶されたコードの前記定義されたネイティブ命令セットから選択された対応する基本命令を受信することに応答して、定義された基本動作セットを実行するように構成され、前記メモリが、前記被験者の前記顔に関連するデータを選択するために前記光学データを分析するための前記ネイティブ命令セットから選択された第1の組のマシンコードと、前記顔の皮膚から光学データを検出するために前記ネイティブ命令セットから選択された第2の組のマシンコードと、経過した時間期間に達するまで前記光学データを収集することによって、前記光学データから時系列を決定し、次いで、前記経過した時間期間にわたって前記収集された光学データから前記時系列を計算するための前記ネイティブ命令セットから選択された第3の組のマシンコードと、前記時系列から前記生理学的信号を計算するための前記ネイティブ命令セットから選択された第4の組のマシンコードとを記憶する、請求項19に記載のシステム。
  21. 前記顔の前記皮膚から前記光学データを前記検出することが、複数の顔境界を決定することと、前記最も高い確率で前記顔境界を選択することと、前記顔からのビデオデータにヒストグラム分析を適用することとを含み、その結果前記メモリが、複数の顔境界を決定することを含む前記顔の前記皮膚から前記光学データを検出するための前記ネイティブ命令セットから選択された第5の組のマシンコードと、前記最も高い確率で前記顔境界を選択するための前記ネイティブ命令セットから選択された第6の組のマシンコードと、前記顔からのビデオデータにヒストグラム分析を適用するための前記ネイティブ命令セットから選択された第7の組のマシンコードとをさらに含む、請求項20に記載のシステム。
  22. 前記複数の顔境界を前記決定することが、前記顔境界を決定するために前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用することを含み、その結果前記メモリが、前記顔境界を決定するために前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用するための前記ネイティブ命令セットから選択された第8の組のマシンコードをさらに含む、請求項21に記載のシステム。
  23. 前記カメラが、携帯電話カメラを含み、前記光学データが、前記携帯電話カメラからビデオデータとして取得される、請求項19~22のいずれか一項に記載のシステム。
  24. 前記計算デバイスが、モバイル通信デバイスを含む、請求項23に記載のシステム。
  25. 前記携帯電話カメラが、背面カメラを含み、前記ビデオデータを取得するために、前記被験者の指先が前記カメラ上に配置される、請求項24に記載のシステム。
  26. 前記光学データを取得するための光を提供するために、前記携帯電話カメラに関連付けられたフラッシュをさらに備える、請求項24または25に記載のシステム。
  27. 前記メモリが、複数の顔または指先境界を決定するための前記ネイティブ命令セットから選択された第9の組のマシンコードと、前記最も高い確率で前記顔または指先境界を選択するための前記ネイティブ命令セットから選択された第10の組のマシンコードと、前記顔または指先からのビデオデータにヒストグラム分析を適用するための前記ネイティブ命令セットから選択された第11の組のマシンコードとをさらに含む、請求項25または26に記載のシステム。
  28. 前記メモリが、前記顔または指先境界を決定するために、前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用するための前記ネイティブ命令セットから選択された第12の組の機械コードをさらに含む、請求項27に記載のシステム。
  29. 前記プロセッサによって実行された前記命令に従って前記生理学的測定値を決定するために、前記顔および指先の画像からの分析されたデータを組み合わせることをさらに含む、請求項25~28のいずれか一項に記載のシステム。
  30. 前記生理学的測定値および/または信号を表示するためのディスプレイをさらに備える、請求項19~29のいずれか一項に記載のシステム。
  31. 前記ユーザ計算デバイスが、前記ディスプレイをさらに含む、請求項30に記載のシステム。
  32. 前記ユーザ計算デバイスが、前記生理学的測定値および/または信号を送信するための送信機をさらに含む、請求項19~31のいずれか一項に記載のシステム。
  33. 前記生理学的信号を前記決定することが、メタデータを前記少なくとも1つの生理学的信号からの測定値と組み合わせることをさらに含み、前記メタデータが、前記被験者の体重、年齢、身長、生物学的性別、体脂肪パーセンテージ、および体筋パーセンテージのうちの1つ以上を含む、請求項19~32のいずれか一項に記載のシステム。
  34. 前記生理学的信号が、ストレス、血圧、呼吸量、およびpSO2(酸素飽和度)からなる群から選択される、請求項19~33のいずれか一項に記載のシステム。
  35. 被験者から生理学的信号を取得するためのシステムであって、前記被験者の指から光学データを取得するための背面カメラと、前記カメラから光学データを受信するためのユーザ計算デバイスとを備え、前記ユーザ計算デバイスが、プロセッサと、複数の命令を記憶するためのメモリとを含み、前記プロセッサが、前記被験者の前記顔に関連するデータを選択するために前記光学データを分析し、前記指の皮膚から光学データを検出し、経過した時間期間に達するまで前記光学データを収集することによって、前記光学データから時系列を決定し、次いで、前記経過した時間期間にわたって前記収集された光学データから前記時系列を計算し、前記時系列から前記生理学的信号を計算するための前記命令を実行する、システム。
  36. 上記の請求項のいずれか一項に記載の前記システムをさらに備える含む、請求項35に記載のシステム。
  37. 被験者から生理学的信号を取得するための方法であって、前記被験者から前記生理学的信号を取得するために、上記請求項のいずれか一項に記載の前記システムを操作することを含む、方法。
JP2022532066A 2019-12-02 2020-12-01 光学データからの生理学的測定のためのシステムおよび方法 Pending JP2023505111A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962942247P 2019-12-02 2019-12-02
US62/942,247 2019-12-02
PCT/IL2020/051238 WO2021111436A1 (en) 2019-12-02 2020-12-01 System and method for physiological measurements from optical data

Publications (2)

Publication Number Publication Date
JP2023505111A true JP2023505111A (ja) 2023-02-08
JPWO2021111436A5 JPWO2021111436A5 (ja) 2023-12-05

Family

ID=76222491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022532066A Pending JP2023505111A (ja) 2019-12-02 2020-12-01 光学データからの生理学的測定のためのシステムおよび方法

Country Status (7)

Country Link
US (1) US20230000376A1 (ja)
EP (1) EP4033972A4 (ja)
JP (1) JP2023505111A (ja)
CN (1) CN114929101A (ja)
CA (1) CA3159539A1 (ja)
IL (1) IL293538A (ja)
WO (1) WO2021111436A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD958171S1 (en) * 2020-08-14 2022-07-19 Cooey Health, Inc. Display screen with graphical user interface for clinician-patient video conference
WO2023214957A1 (en) * 2022-05-02 2023-11-09 Elite HRV, Inc. Machine learning models for estimating physiological biomarkers

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3432790A4 (en) * 2016-03-22 2019-10-02 Multisense BV SYSTEM AND METHOD FOR AUTHENTICATING VITAL SIGNAL MEASUREMENTS FOR BIOMETRIC DETECTION THROUGH PHOTOPLETHYMOGRAPHY BY REMOVED SENSORS
US20180085009A1 (en) * 2016-09-27 2018-03-29 OCR Labs Pty Ltd Method and system for detecting user heart rate using live camera feed
EP3440996A1 (en) * 2017-08-08 2019-02-13 Koninklijke Philips N.V. Device, system and method for determining a physiological parameter of a subject
US10799182B2 (en) * 2018-10-19 2020-10-13 Microsoft Technology Licensing, Llc Video-based physiological measurement using neural networks

Also Published As

Publication number Publication date
IL293538A (en) 2022-08-01
EP4033972A1 (en) 2022-08-03
US20230000376A1 (en) 2023-01-05
WO2021111436A1 (en) 2021-06-10
EP4033972A4 (en) 2024-01-10
CA3159539A1 (en) 2021-06-10
CN114929101A (zh) 2022-08-19

Similar Documents

Publication Publication Date Title
Wang et al. A comparative survey of methods for remote heart rate detection from frontal face videos
Sarkar et al. Cardiogan: Attentive generative adversarial network with dual discriminators for synthesis of ecg from ppg
Casado et al. Face2PPG: An unsupervised pipeline for blood volume pulse extraction from faces
Qiao et al. Measuring heart rate and heart rate variability with smartphone camera
Gudi et al. Efficient real-time camera based estimation of heart rate and its variability
CN110753515A (zh) 光体积描记图形数据的可靠获取
JP2023505111A (ja) 光学データからの生理学的測定のためのシステムおよび方法
JP2019097757A5 (ja)
Chen et al. Modulation model of the photoplethysmography signal for vital sign extraction
Qiao et al. Revise: Remote vital signs measurement using smartphone camera
Yen et al. Blood Pressure and Heart Rate Measurements Using Photoplethysmography with Modified LRCN.
US20230056557A1 (en) System and method for pulse transmit time measurement from optical data
Pursche et al. Using the Hilbert-Huang transform to increase the robustness of video based remote heart-rate measurement from human faces
WO2022067439A1 (en) Method and apparatus for generating an electrocardiogram from a photoplethysmogram
JP2023546451A (ja) 光学データからの血圧測定値のためのシステム及び方法
Le et al. Heart Rate Estimation Based on Facial Image Sequence
Lee et al. Video-based bio-signal measurements for a mobile healthcare system
JP2023545426A (ja) 光学データによる血中アルコール測定値のためのシステム及び方法
Zhuang et al. Remote blood pressure measurement via spatiotemporal mapping of a short-time facial video
WO2023002477A1 (en) System and method for blood pressure estimate based on ptt from the face
JP2024525911A (ja) 顔からのpttに基づく血圧推定のためのシステム及び方法
CN116269285B (zh) 一种非接触式常态化心率变异性估计***
Deepakfranklin Survey on Methods of Obtaining Biomedical Parameters from PPG Signal
US20240108235A1 (en) Non-contact image-based blood pressure measurement method and system based on advanced visual intelligence
Wang et al. Generative Adversarial Network for Photoplethysmography Reconstruction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231214