JP2023510943A - 光データによる脈遷移時間測定のためのシステムおよび方法 - Google Patents
光データによる脈遷移時間測定のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2023510943A JP2023510943A JP2022543697A JP2022543697A JP2023510943A JP 2023510943 A JP2023510943 A JP 2023510943A JP 2022543697 A JP2022543697 A JP 2022543697A JP 2022543697 A JP2022543697 A JP 2022543697A JP 2023510943 A JP2023510943 A JP 2023510943A
- Authority
- JP
- Japan
- Prior art keywords
- data
- face
- fingertip
- skin
- light data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 148
- 230000003287 optical effect Effects 0.000 title claims abstract description 23
- 238000005259 measurement Methods 0.000 title claims description 33
- 238000004458 analytical method Methods 0.000 claims abstract description 30
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 238000013527 convolutional neural network Methods 0.000 claims description 20
- 230000036772 blood pressure Effects 0.000 claims description 18
- 230000001815 facial effect Effects 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 8
- 230000001360 synchronised effect Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 3
- 238000010295 mobile communication Methods 0.000 claims description 3
- 210000000577 adipose tissue Anatomy 0.000 claims 2
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 claims 2
- 210000003205 muscle Anatomy 0.000 claims 2
- 229910052760 oxygen Inorganic materials 0.000 claims 2
- 239000001301 oxygen Substances 0.000 claims 2
- 230000008878 coupling Effects 0.000 claims 1
- 238000010168 coupling process Methods 0.000 claims 1
- 238000005859 coupling reaction Methods 0.000 claims 1
- 238000007781 pre-processing Methods 0.000 abstract description 17
- 230000000541 pulsatile effect Effects 0.000 abstract description 7
- 238000000605 extraction Methods 0.000 abstract description 2
- 238000012805 post-processing Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 27
- 230000006870 function Effects 0.000 description 19
- 238000004422 calculation algorithm Methods 0.000 description 17
- 230000007246 mechanism Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 9
- 210000004369 blood Anatomy 0.000 description 9
- 239000008280 blood Substances 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 230000001934 delay Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000000513 principal component analysis Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000012880 independent component analysis Methods 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000035485 pulse pressure Effects 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 210000001367 artery Anatomy 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000747 cardiac effect Effects 0.000 description 2
- 230000003205 diastolic effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000009532 heart rate measurement Methods 0.000 description 2
- 210000005240 left ventricle Anatomy 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000028161 membrane depolarization Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 238000011045 prefiltration Methods 0.000 description 2
- 238000000611 regression analysis Methods 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- GVGLGOZIDCSQPN-PVHGPHFFSA-N Heroin Chemical compound O([C@H]1[C@H](C=C[C@H]23)OC(C)=O)C4=C5[C@@]12CCN(C)[C@@H]3CC5=CC=C4OC(C)=O GVGLGOZIDCSQPN-PVHGPHFFSA-N 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000005311 autocorrelation function Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 210000002837 heart atrium Anatomy 0.000 description 1
- 210000003709 heart valve Anatomy 0.000 description 1
- 238000011221 initial treatment Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000013186 photoplethysmography Methods 0.000 description 1
- 238000000718 qrs complex Methods 0.000 description 1
- 230000002336 repolarization Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000035488 systolic blood pressure Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/021—Measuring pressure in heart or blood vessels
- A61B5/02108—Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics
- A61B5/02125—Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics of pulse wave propagation time
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6898—Portable consumer electronic devices, e.g. music players, telephones, tablet computers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
- A61B2576/02—Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
- A61B5/02416—Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30076—Plethysmography
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Cardiology (AREA)
- Physiology (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Vascular Medicine (AREA)
- Psychiatry (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Measurement Of Unknown Time Intervals (AREA)
- Arrangements For Transmission Of Measured Signals (AREA)
Abstract
PTT(脈遷移時間)の決定に関するものを含む、脈拍数検出の精度を高めるための新たなシステムおよび方法が提供される。カメラ出力/入力の前処理、前処理されたカメラ信号からの脈動信号の抽出、およびその後の脈動信号の後処理を含むがこれに限定されない様々な態様が高い精度に寄与する。この改善された情報は、その後、不正確な光脈拍数検出方法では不可能な、正確なBP決定などの分析のために用いられ得る。【選択図】図4
Description
本発明は、光データから決定される脈遷移時間(PTT)測定値のためのシステムおよび方法に関し、特に、複数のカメラによる被験者のビデオデータからそのような測定値を決定するためのシステムおよび方法に関する。
心拍測定デバイスの歴史を1870年代まで遡ると、心拍周期(または心臓の鼓動)による電圧の変化を測定する最初の心電図(ECGまたはEKG)があった。EKG信号は、心房の脱分極を表すP波、心室の脱分極を表すQRS群、および心室の再分極を表すT波という3つの主要成分で構成される。
第2の脈拍数検出技術は、フォトプレスチモグラフィ(PPG 09ol)と名付けられた、組織の微小血管床における血液量の変化を検出する光学測定である。PPG測定において、末梢脈波は、収縮期ピークおよび拡張期ピークを示す特徴を持つ。収縮期ピークは、左心室から身体の末梢部へ移動する直接圧力波の結果であり、拡張期ピーク(または変曲)は、下半身動脈に圧力波が反射した結果である。
PPGベースのデバイスには、接触ベースと遠隔(rPPG)との2つのカテゴリが存在する。接触ベースのデバイスは、一般的に指において使用され、一般的に赤色およびIR(赤外線)波長で光反射を測定する。一方、遠隔PPGデバイスは、一般的に顔の皮膚表面に反射した光を測定する。大半のrPPGアルゴリズムはIRカメラを使用せず、RGBカメラを使用する。
PPG信号は、光と生体組織との相互作用から得られるので、(多重)散乱、吸収、反射、伝達、および蛍光に依存する。接触ベースの測定または遠隔PPG測定に関するデバイスの種類に依存して、異なる効果が重視される。rPPG分析において、信号の便宜上の一次分解は、強度変動、(生体組織と相互作用しない)散乱、および脈動信号である。瞬時脈拍時間は、EKG測定におけるR時間またはPPG測定における収縮期ピークから設定される。EKGの表記は、rPPG測定の収縮期ピークをR時間として示すために用いられる。瞬時心拍数は、毎分ビートを60/RR(n)として連続したR時間の差、RR(n)=R(n)-R(n-1)から評価される。
健康のために重視され得る追加の測定値は、脈遷移時間(PTT)である。PTTは、脈圧(PP)波形が動脈樹の全長に伝搬するのに要する時間である。圧力波の速度は、脈波速度(PWV)と称され、PTTを決定することによって推定され得る。脈圧波形は、左心室からの血液吐出の結果生じ、血液自体の前進よりも大幅に大きい速度で移動する。現在、指先で脈波形を記録するためには、ECG(心電図)と指装着型デバイスとの組み合わせが必要である。しかし、これらのデバイスは使用が難しく、医療従事者による監督を必要とする。
正確な光脈拍数検出は、残念ながら様々な技術的問題に苛まれる。主な難点は、低い信号対雑音比がもたらされることにより脈拍数の検出に失敗することである。正確な脈拍数検出は、たとえばPTTなどの追加の測定値の生成を必要とし、これには、パルス信号の開始ならびに指先における脈波形の正確な測定が必要である。
詳しく後述するように、身体の2つの異なる組織位置における信号からHR信号測定値を取得することが、脈拍の開始を検出するために用いられ得る。脈波形の開始の検出と指先脈波形測定との組み合わせが、PTTの決定を支援する。
本願で特許請求の範囲に記載される発明は、脈拍数検出の精度を高めるための新たなシステムおよび方法を提供することによって、これらの難点を克服するものである。カメラ出力/入力の前処理、前処理されたカメラ信号からの脈動信号の抽出、その後の脈動信号の後処理を含むがこれに限定されない様々な態様が、高い精度に寄与する。この改善された情報は、その後、不正確な光脈拍数検出方法では不可能な、たとえばHRV決定などの分析のために用いられ得る。
指先における脈波形の決定は、指先自体で実際の測定が行われることを必要とする。そのような脈波形は、ビデオ画像の分析により、カメラで測定され得る。これらの脈波形測定値は、その後、PTT測定値を生成するためにHRVの決定と併用され得る。
上述したように、現在、PTTの決定には、ECG(心電図)と、指先で脈波形を記録するための指装着型デバイスとの併用が必要である。ECGは、R波によって測定される心臓の活動を用いて、PTT測定のための近位タイミング基準を決定するために用いられる。Esmaili氏他(“Non-invasive Blood Pressure Estimation Using Phonocardiogram”、2017 IEEE International Symposium on Cirsuits and Systems(DOI:10.1109/ISCAS.2017.8050240))は、PTT測定のための近位タイミング基準のためにECGではなく心音図(PCG)を用いることを提案した。PCGは、各々が音を生じる心臓弁の開閉によって生成される。PCGのS1ピークは、血液が心臓から出る時に出される、検出可能な音である。この著者は、PTTを測定するためにECGのRピークの代わりにS1ピークが用いられ得ることを提案した。実際の音と同様、これはマイクロフォンによって収集され得る。
しかし、この構成にも多数の欠点がある。たとえば、指装着型デバイスは特別なハードウェアであり、常に容易に利用可能というわけではない。ECGはデバイスとして更に複雑である。マイクロフォンの使用は、場合によっては、心臓のタイミング測定の複雑性を低減するが、たとえば背景雑音や身体から生じる他の雑音の問題など、他の問題点を招く。
これらの欠点は、以下に示す典型的な実装によって克服され得る。この目標を達成するために、適切なサンプリングレート分解能を有するデータ取得ハードウェアが用いられる。そのようなハードウェアは、好適には、心拍数(HR)を継続的に測定することが可能である。また、好適には、最小かつ一定のサンプリング遅延およびジッタをもたらすためにハードウェアクロックが同期される。その結果、取得された全ての信号は、HR測定に直接または間接的に用いられ得る時系列を表す。この機構は、信号を取得するために用いられるセンサが配置された様々な位置に従ってHRの検出に関する相対遅延時間が一定を保つという点でロバストである。この状況において、同じ脈拍の伝搬がなお相対遅延時間を提供する。センサペア間の距離は、好適には、信頼できる遅延時間をもたらすように選択され、より好適には、HR脈拍検出に関する遅延がハードウェア遅延よりも大きい。
本明細書に記載するように、そのようなセンサペアの非限定的な例は、身体の2つの異なる組織位置から採取された2つの異なる光データセットを指す。「2つ」とは、複数の位置および光データセットを意味するが、任意選択的に、異なるデータ位置の最小セットの好適な例に関するペアが言及される。そのような異なる光データセットは、たとえば、複数のカメラによって撮影され得る。
そのような実装の非限定的な例は、ユーザ(または被験者)の顔から光データを取得する第1のビデオカメラ、およびユーザ(または被験者)の指から光データを取得する第2のビデオカメラである。非限定的な例として、スマートフォン、携帯電話、タブレット、モバイルフォン、または2つのカメラを有する他のコンピュータデバイスを含むがこれに限定されない、2つの異なるカメラを有するデバイスが用いられ得る。
これらの非限定的な例において、一般に、一方のカメラはデバイスの前面に搭載され、他方のカメラは背面に搭載される。ユーザは、前面カメラがユーザの顔の光データを取得することができるようにデバイスを持ちながら、背面カメラに指を載せることができ、それによってユーザの指の光データが取得され得る。この例において、前面カメラおよび背面カメラの両方から光信号が取得され、rPPG信号およびPPG信号の両方が生成される。これら2つの信号は、2つの異なる身体組織位置で検出されたパルス信号間の自然な遅延によってPTT値を導出し得る。
任意選択的に、測定中の身体組織位置をより正確に決定するために、較正手順が行われる。たとえば、較正手順は、監視下での身体運動を含んでよい。たとえば、顔-左手指の異なる組み合わせに関するパルス信号の測定のために配置されたrPPG/PPGセンサの場合、顔-右手指とは対照的に、提案される方法は、予想通り、異なるモデルおよび結果を提供する。これは、左右の手におけるBPの測定と同様である。rPPG/PPGの場合、予備的な指紋モデリング、あるいは個人情報の保存がなくとも、ソフトウェアは、どの指に装着されたかを認識し得るので、この問題は解決可能である。rPPG/PPGのための最小ハードウェア要件は一般的なモバイルフォンによって満たされるが、モバイルフォンではなく、またはその代わりに、両方の種類のHR信号を測定可能な他のセンサ機構が用いられ得る。
加えて、上述のPTTの測定値は、血圧(BP)変動性の決定を含むがこれに限定されない、より正確なBPの決定のために用いられ得る。
任意選択的に、本明細書で説明する任意の方法またはその一部と組み合わせて、上記顔の皮膚から上記光データを上記検出することは、複数の顔または指先境界を決定し、最も確率が高い顔または指先境界を選択し、顔または指先からのビデオデータにヒストグラム分析を適用することを備える。任意選択的に、上記複数の顔または指先境界を上記決定することは、上記顔または指先境界を決定するために上記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用することを備える。任意選択的に、この方法は、生理信号測定値を決定するために顔および指先の画像からの分析データを結合することを更に備えてよい。
本発明の方法およびシステムの実施は、特定の選択されたタスクまたはステップを手動で、自動で、またはその組み合わせで実行または遂行することを含む。また、本発明の方法およびシステムの好適な実施形態の実際の機器および装置によると、いくつかの選択されたステップは、ハードウェアで、任意のファームウェアのオペレーティングシステム上のソフトウェアで、またはその組み合わせで実施され得る。たとえば、ハードウェアの場合、本発明の選択されたステップは、チップまたは回路として実装され得る。ソフトウェアの場合、本発明の選択されたステップは、任意の適切なオペレーティングシステムを用いてコンピュータによって実行される複数のソフトウェア命令として実装され得る。いずれの場合も、本発明の選択された方法のステップおよびシステムは、たとえば複数の命令を実行するためのコンピューティングプラットフォームなどのデータプロセッサによって実行されるものとして説明され得る。
本発明は、「コンピューティングデバイス」、「コンピュータ」、または「モバイルデバイス」に関して説明されるが、留意すべき点として、任意選択的に、任意の種類のパーソナルコンピュータ(PC)、サーバ、分散型サーバ、仮想サーバ、クラウドコンピューティングプラットフォーム、セルラ電話、IP電話、スマートフォン、またはPDA(パーソナルデジタルアシスタント)を含むがこれに限定されない、データプロセッサおよび1または複数の命令を実行する能力を特徴とする任意のデバイスがコンピュータとして説明され得る。互いに通信状態にあるそのようなデバイスのいずれか2つ以上は、任意選択的に、「ネットワーク」または「コンピュータネットワーク」を備える。
本発明は、添付図面を参照して、単なる例として本明細書で説明される。以下、図面を詳しく具体的に参照するが、この詳細は、例として、本発明の好適な実施形態を例示的に説明する目的で示されており、本発明の原理および概念的態様の最も有用かつ容易に理解される説明であると考えられるものを提供するために提示される。この点に関して、本発明の基本的な理解に必要な程度よりも詳しく本発明の構造的細部を示すことは意図されておらず、図面を伴う説明により、本発明の複数の形態がどのように実際に具体化され得るかを当業者に対し明らかにする。
脈遷移時間(PTT)は、たとえばrPPGを介したR波の直接的または間接的な測定を必要とし、また、何らかの種類のPPGを介して測定され得る指先の脈波形の決定も必要とする。好適には、rPPGおよびPPGパルス信号測定の組み合わせが行われ、rPPGは、PPG信号測定位置とは異なる身体組織位置から採取される。たとえば、PPG信号は、ビデオカメラに指先を載せることによって得られ得る。PPG信号測定は、当技術分野において知られており、後述するように、または他のPPG信号測定デバイスおよびシステムに従って実施され得る。
しかし、rPPG測定には固有の難題が多数存在する。rPPGメカニズムに関する鍵となる根本的な問題は、正確な顔および指の検出、および分析に適した的確な皮膚表面の選択である。特許請求の範囲に記載の本発明は、ニューラルネットワーク方法論に基づく顔、指、および皮膚の検出に関してこの問題を克服する。その非限定的な例を以下に提供する。好適には、皮膚選択に関して、ヒストグラムベースのアルゴリズムが使用される。顔のみを含むビデオフレームの一部にこの手順を適用することにより、赤色、緑色、および青色(RGB)の各チャネルの平均値がフレームデータを構築する。その結果生じるビデオフレームに上記手順を連続的に用いると、時系列のRGBデータが取得される。RGB値によって表されるこれらの時系列の各要素は、フレームごとに取得され、第1の要素の第1の発生からの経過時間を決定するためにタイムスタンプが用いられる。その後、合計経過時間が、完全な時間ウィンドウ(Lalgo)に関して、脈拍数推定値が定義した外部パラメータに用いられる平均期間に到達すると、rPPG分析が開始する。可変フレーム取得レートを考慮に入れると、時系列データは、与えられた固定フレームレートに対し補間される必要がある。
補間後、より多くの適切な3次元信号(RGB)を構築するために前処理メカニズムが適用される。そのような前処理は、たとえば正規化およびフィルタリングを含んでよい。前処理の後、rPPGトレース信号が算出され、これは、平均脈拍数および脈波形の開始を推定することを含む。
指先の画像、たとえばスマートフォンなどのモバイルデバイスの背面カメラによって撮影された画像に関して、同様のプロセスが辿られ得る。
PTTを決定するために、2つの異なる位置で採取された脈波形測定値間の遅延を正確に決定する必要がある。したがって、rPPGおよびPPGに関与するセンサは、正確に同期する必要がある。正確なPTT測定は、2つの脈拍測定値間の相対的遅延が正確に決定され得るように、信号を取得するタイミング間の正確な同期を必要とするので、ハードウェアの同期が好適である。
ここで図面を参照すると、図1Aおよび図1Bは、ユーザのビデオデータを取得し、ビデオデータを分析して1または複数の生体信号を決定する、たとえばPTTを決定するための典型的で非限定的な例示的システムを示す。
図1Aは、サーバ118と通信しているユーザコンピュータデバイス102を主としたシステム100を示す。ユーザコンピュータデバイス102は、好適には、コンピュータネットワーク116を介してサーバ118と通信する。ユーザコンピュータデバイス102は、好適には、たとえばマウスなどのポインティングデバイス、キーボード、および/または他の入力デバイスを含み得るユーザ入力デバイス106を含む。
加えて、ユーザコンピュータデバイス102は、好適には、カメラ114Aおよびカメラ114Bとして示される複数のカメラ114を含む。たとえば、カメラ114Aは、ユーザの顔のビデオデータを取得するために用いられ得る。カメラ114Bは、ユーザの指先のビデオデータを取得するために用いられ得る。後者に関して、好適には指がカメラ114Bに載せられる。
カメラ114Aおよび114Bの各々または両者は、ユーザコンピュータデバイスとは別であってもよい。ユーザは、信号分析の種類を決定するため、信号分析を開始するため、および信号分析の結果を受信するためのコマンドを提供するために、ユーザアプリインタフェース104とインタラクトする。
たとえばユーザは、カメラ114Aを個別に作動させることによって、またはユーザアプリインタフェース104を介してコマンドを発行することによってそのようなデータを記録することによって、ユーザコンピュータデバイス102を介してカメラ114Aによるユーザの顔のビデオデータの記録を開始してよい。同様に、ユーザは、カメラ114Bを個別に作動させることによって、またはユーザアプリインタフェース104を介してコマンドを発行することによってそのようなデータを記録することによって、カメラ114Bによるユーザの指先のデータの記録を開始してよい。
好適な実施形態において、ユーザコンピュータデバイス102は、たとえばスマートフォンなどのモバイル通信デバイスを備える。この種のデバイスの場合、一般に、前面カメラおよび背面カメラが存在する。ユーザアプリインタフェース104は、好適には、両方のカメラを同時またはほぼ同時に作動させることが可能である。任意選択的に、カメラ114Aおよび114Bのいずれかは、前面または背面カメラであってよい。ユーザアプリインタフェース104の使い易さのために、好適には、ユーザの顔を捕捉するカメラ114Aが(ユーザディスプレイデバイス108として示される表示スクリーンの上に、または表示スクリーンと同じ方向に設置された)前面カメラであり、ユーザの指先を捕捉するカメラ114Bが背面カメラである。
次に、ビデオデータは、好適にはサーバ118に送信され、そこでサーバアプリインタフェース120によって受信される。その後、ビデオデータは信号分析器エンジン122によって分析される。信号分析器エンジン122は、好適には、皮膚検出の前にカメラ114Aからのビデオ信号における顔の検出を含む。詳しく後述するように、好適には、この情報からのパルス信号の取得を支援するために、様々な非限定的なアルゴリズムが適用される。加えて、カメラ114Bからの信号は、好適には、指先における脈波形およびそのタイミングを検出するために、PPG信号分析に従って分析される。信号分析器エンジン122は、そのような分析を支援するために、ビデオデータにおける指先検出のために実装されてもよい。
次に、パルス信号は、好適には、脈波形タイミングの決定を支援するために時間フィルタ、周波数フィルタ、および非線形フィルタに従って分析される。たとえば、2つの信号のタイミングは、好適には、ハードウェア同期に従って決定される。そのような同期は、たとえば、ハードウェアクロック130によって決定され得る。その後、PTTを算出するために更なる分析が行われ得る。
ユーザコンピュータデバイス102は、好適には、プロセッサ110Aおよびメモリ112Aを特徴とする。サーバ118は、好適には、プロセッサ110Bおよびメモリ112Bを特徴とする。
本明細書で用いられる場合、たとえばプロセッサ110Aまたは110Bなどのプロセッサは、一般に、特定のシステムの通信および/または論理関数を実装するために用いられる回路を有するデバイスまたはデバイスの組み合わせを指す。たとえば、プロセッサは、デジタル信号プロセッサデバイス、マイクロプロセッサデバイス、および様々なアナログデジタル変換器、デジタルアナログ変換器、および他の支援回路および/または上記の組み合わせを含んでよい。システムの制御および信号処理機能は、全て、それぞれの能力に従ってこれらの処理デバイス間で分配される。プロセッサは、この非限定的な例においてたとえばメモリ112Aまたは112Bなどのメモリに格納され得るコンピュータ実行可能プログラムコードに基づいて1または複数のソフトウェアプログラムを動作させる機能を更に含んでよい。この表現が本明細書で用いられる場合、プロセッサは、たとえば、1または複数の汎用回路に、コンピュータ可読媒体で具体化される特定のコンピュータ実行可能プログラムコードを実行することによって機能を行わせること、および/または1または複数の特定用途向け回路に機能を行わせることを含む様々な方法で特定の機能を行う「ように構成され」得る。
加えて、ユーザコンピュータデバイス102は、信号分析の結果、発行されている1または複数のコマンドの結果などを表示するためのユーザ表示デバイス108を特徴としてよい。
図1Bは、上述した機能がユーザコンピュータデバイス102によって行われるシステム150を示す。図1Aまたは図1Bのいずれかに関して、ユーザコンピュータデバイス102は、モバイルフォンを備えてよい。図1Bにおいて、上述した信号分析器エンジンは、信号分析器エンジン152としてユーザコンピュータデバイス102によって動作中である。信号分析器エンジン152は、図1Aの信号分析器エンジンに関して説明したものと同じまたは同様の機能を有してよい。図1Bにおいて、ユーザコンピュータデバイス102は、たとえばインターネット(不図示)などのコンピュータネットワークに接続されてよく、他のコンピュータデバイスと通信してもよい。少なくともいくつかの実施形態において、機能の一部はユーザコンピュータデバイス102によって行われるが、他の機能は、たとえばサーバ(図1Bには不図示、図1Aを参照)などの別のコンピュータデバイスによって行われる。
任意選択的に、メモリ112Aまたは112Bは、定義済みのネイティブ命令コードセットを格納するために構成される。プロセッサ110Aまたは110Bは、メモリ112Aまたは112Bに格納された定義済みのネイティブ命令コードセットから選択された対応する基本命令の受信に応答して、定義済みの基本動作セットを行うように構成される。
任意選択的に、メモリ112Aまたは112Bは、被験者の顔に関連するデータを選択するために光データを分析することに関する、ネイティブ命令セットから選択される第1の機械コードセット、顔の皮膚から光データを検出することに関する、ネイティブ命令セットから選択される第2の機械コードセット、経過期間に到達するまで光データを収集し、経過期間にわたり収集された光データから時系列を算出することによって、光データから時系列を決定することに関する、ネイティブ命令セットから選択される第3の機械コードセット、および時系列から生理信号を算出することに関する、ネイティブ命令セットから選択される第4の機械コードセットを格納する。
任意選択的に、メモリ112Aまたは112Bは、複数の顔境界を決定することを備える、上記顔の皮膚から上記光データを検出することに関する、ネイティブ命令セットから選択される第5の機械コードセット、最も確率が高い顔境界を選択することに関する、ネイティブ命令セットから選択される第6の機械コードセット、および顔からのビデオデータにヒストグラム分析を適用することに関する、ネイティブ命令セットから選択される第7の機械コードセットを更に備える。
任意選択的に、メモリ112Aまたは112Bは、上記顔の境界を決定するために上記ビデオデータにマルチパラメータ畳み込みニューラルネットワーク(CNN)を適用することに関する、ネイティブ命令セットから選択される第8の機械コードセットを更に備える。
任意選択的に、メモリ112Aまたは112Bは、光データを分析して被験者の指先に関連するデータを選択することに関する、ネイティブ命令セットから選択される第9の機械コードセット、指先の皮膚から光データを検出することに関する、ネイティブ命令セットから選択される第10の機械コードセット、経過期間に到達するまで光データを収集し、経過期間にわたり収集された光データから時系列を算出することによって、光データから時系列を決定することに関する、ネイティブ命令セットから選択される第11の機械コードセット、および時系列から生理信号を算出することに関する、ネイティブ命令セットから選択される第12の機械コードセットを格納する。
任意選択的に、メモリ112Aまたは112Bは、複数の指先境界を決定することを備える、前記指先の皮膚から前記光データを検出することに関する、ネイティブ命令セットから選択される第13の機械コードセット、最も確率が高い指先境界を選択することに関する、ネイティブ命令セットから選択される第14の機械コードセット、および指先からのビデオデータにヒストグラム分析を適用することに関する、ネイティブ命令セットから選択される第15の機械コードセットを更に備える。
任意選択的に、メモリ112Aまたは112Bは、上記指先境界を決定するために上記ビデオデータにマルチパラメータ畳み込みニューラルネットワーク(CNN)を適用することに関する、ネイティブ命令セットから選択される第16の機械コードセットを更に備える。追加または代替として、指先がカメラに押し付けられるので、指先検出ではなく皮膚検出のみが行われる。
図2Aは、ユーザの顔からパルス信号および他の関連信号を検出するために、信号分析を行うための非限定的で典型的な方法を示す。プロセス200は、ブロック202において、たとえばビデオカメラ204を起動することによってデータを取得するプロセスを開始することによって始まる。その後、任意選択的に、最初にユーザの顔の位置を特定するために、ステップ206において顔認識が行われる。これはたとえば、深層学習顔検出モジュール208を介して、また追跡プロセス210も介して行われ得る。信号分析に関する最も正確な結果を取得するために、ビデオデータは好適にはユーザの顔のビデオデータであるので、ユーザの顔の位置を特定することが重要である。追跡プロセス210は、連続特徴マッチングメカニズムに基づく。特徴は、新たなフレームにおける過去に検出された顔を表す。特徴は、フレーム内の位置に従って、かつ、たとえばCNN(畳み込みニューラルネットワーク)などの画像認識プロセスの出力から決定される。フレーム内に1つの顔だけが出現する場合、追跡プロセス210は、フレーム内の顔認識に簡易化され得る。
非限定的な例として、任意選択的に、リアルタイム条件下で最高水準の精度を実現するマルチタスク畳み込みネットワークアルゴリズムが顔検出に適用される。これは、Li氏他著の出版物(Haoxiang Li、Zhe Lin、Xiaohui Shen、Jonathan Brandt、およびGang Hua.A convolutional nerural network cascade for face detection.IEEE Conference on Computer Vision and Pattern Recognition(CVPR)、2015年6月)において紹介されたネットワークカスケードに基づくものである。
次に、212において、ビデオデータ内でユーザの顔の皮膚が位置特定される。好適には、皮膚選択のために、ヒストグラムベースのアルゴリズムが用いられる。上述した顔検出アルゴリズムに従って決定されたように、顔のみを含むビデオフレームの一部にこの手順を適用することで、各チャネルについての平均値、赤色、緑色、および青色(RGB)がフレームデータを構築するために好適に用いられる。その結果生じるビデオフレームに上記手順を連続的に用いると、時系列のRGBデータが取得される。RGB値を有する各フレームは、これらの時系列の要素を表す。各要素は、最初の発生から経過した時間に従って決定されたタイムスタンプを有する。収集された要素は、Lalgo要素を有するスケーリングされたバッファとして説明され得る。フレームは、好適には、十分な要素が収集されるまで収集される。要素の数の充足性は、好適には、合計経過時間に従って決定される。214のrPPG分析は、合計経過時間が、脈拍数推定に用いられる平均化期間に必要な時間の長さに到達すると、開始する。収集されたデータ要素は、補間され得る。補間の後、好適には、より適切な3次元信号(RGB)を構築するために前処理メカニズムが適用される。
214において、3次元信号および特にRGBデータの要素からPPG信号が生成される。たとえば脈拍数は、詳しく後述するように、単一の計算結果から、または複数の相互相関された計算結果から決定され得る。これはその後、216において正規化およびフィルタされ、218においてECGを再構築するために用いられ得る。220において基本周波数が求められ、222において、たとえば心拍数、パルス信号タイミングなどの統計が生成される。
図2Bは、たとえば上述したようなモバイルデバイスの背面カメラから得たユーザの指先のビデオデータを分析するための同様の非限定的で典型的な方法を示す。重ねて言うと、好適には、このビデオデータは、顔のビデオデータと同時またはほぼ同時に捕捉される。方法240において、方法は、242においてユーザの指先をカメラまたはカメラ付近に載せることによって開始する。カメラ付近の場合、指先は、カメラから目視できる必要がある。この配置は、たとえばモバイルデバイスにおいて、「自撮り」形式でユーザの顔を撮像するために正面カメラを使用中である時、ユーザに、モバイルデバイスの背面カメラに指先を載せさせることによって実現され得る。カメラは既に既知の幾何的位置にあり、それによって指先および顔の正確な配置が促される。
244において、指、好適には指先の画像がカメラによって取得される。次に、246において、指、好適には指先が画像内で位置特定される。このプロセスは、画像内での顔の位置特定に関して上述されたように行われ得る。ただし、ニューラルネットが用いられる場合、ニューラルネットは、指および好適には指先を位置特定するために特に訓練される必要がある。光データからの手追跡は、当技術分野において知られており、一連の画像内で指先を追跡するために、修正された手追跡アルゴリズムが用いられ得る。
248において、画像の指部分、好適には指先部分において皮膚が発見される。重ねて言うと、このプロセスは、一般に皮膚の位置特定に関して上述したように、任意選択的に指または指先の皮膚のために調整を加えて行われ得る。重ねて言うと、好適にはヒストグラムベースの方法が用いられ、250においてPPG/rPPGを行うために十分な数が利用可能になるまで画像が収集される。このデータが取得されると、ステップ214~220に関して上述したように、ステップ250~256が行われ得る。ただし、ステップ258は、脈波形を決定することと、たとえば同期ハードウェアクロックに従って2つの異なる位置におけるパルス信号タイミング間の相対時間差を決定することとも含む。
図3Aおよび図3Bは、ユーザがアプリを使用して生体統計値を取得することを可能にするための非限定的で典型的な方法を示す。方法300において、ユーザは、302においてアプリに登録する。次に、304において、たとえばユーザコンピュータデバイスに取り付けられた、またはユーザコンピュータデバイスと一体のビデオカメラで、画像が取得される。ビデオカメラは、好適には、本明細書で説明するようなRGBカメラである。
画像306内で顔が位置特定される。これは、ユーザコンピュータデバイスで、サーバで、または任意選択的にその両方で行われ得る。また、このプロセスは、マルチタスク畳み込みニューラルネットに関して上述したように行われ得る。その後、RGB信号データにヒストグラムを適用することによって皮膚検出が行われる。好適には、皮膚に反射した光に関するビデオデータのみが、光脈拍検出およびHRV決定のために分析される。
308において、たとえば上述したように、信号に関する時系列が決定される。可変のフレーム取得レートを考慮に入れると、時系列データは好適には、与えられた固定フレームレートに対して補間される。補間手順を実行する前に、好適には、補間が行われ得るように以下の条件が分析される。第1に、補間および前処理の後、rPPG分析のために十分なフレームが存在するかを検証するために、フレームの数が分析される。
次に、ウィンドウ内で毎秒測定されたフレームが最小閾値を上回るかを検証するために、毎秒フレーム数が考慮される。その後、フレーム間の時間のずれがある場合、それが、たとえば0.5秒であってよい何らかの外部設定閾値未満であることを確認するために分析される。
上記条件のいずれかが満たされない場合、好適には、手順は全データをリセットして終了し、たとえば上述したように304に戻るために最後の有効フレームから再開する。
次に、補間の後、310において、好適にはビデオデータは前処理される。前処理メカニズムは、より適切な3次元信号(RGB)を構築するために適用される。前処理は、好適には、各チャネルを総電力に正規化すること、(ローパスフィルタによって推定される)平均値でチャネル値をスケーリングし、1を減じること、およびその後、バターワースバンドパスIIRフィルタにデータを通すことを含む。
312において、ハードウェアクロックに関連する信号のタイミングを含む統計情報が抽出される。その後、314において、顔光信号から心臓の鼓動が再構築される。その後、316において、顔信号から脈拍タイミングが決定される。
ここで、318において、ハードウェアクロックに関連する信号のタイミングに関するものを含む指先光信号から心臓の鼓動が再構築される。指先におけるHRタイミングは、その後、320において決定される。その後、322において、顔信号から決定された脈拍タイミングに対する差分タイミングまたは遅延に関するものを含む、指先脈波形が算出される。差分タイミングの決定は、好適には、ハードウェアクロックを介した信号の同期によって支援される。その後、324において、差分タイミングおよび指先における脈波形検出に従って、PTTが決定される。
図3Bは、314における上述のプロセスに供給され得る指先光信号を取得および分析するための典型的で非限定的な方法を示す。図3Bは、たとえば上述したようなモバイルデバイスの背面カメラから得たユーザの指先のビデオデータを分析するための同様の非限定的で典型的な方法を示す。このプロセスは、たとえばユーザの顔に関して前面カメラから十分なビデオデータを捕捉することができない場合、用いられ得る。任意選択的に、両方の方法が組み合わせられ得る。
方法340において、方法は、342において、ユーザの指先をカメラまたはカメラ付近に載せることによって開始する。カメラ付近の場合、指先はカメラから目視できる必要がある。この配置は、たとえばモバイルデバイスにおいて、ユーザに、モバイルデバイスの背面カメラに指先を載せさせることによって実現され得る。カメラは既に指先の配置に関して既知の幾何的位置にあり、それによって、正確なビデオデータの収集の観点から指先の適切な配置が促される。任意選択的に、十分な光を提供するためにモバイルデバイスのフラッシュが長期モード(「トーチ」または「フラッシュライト」モード)で有効化され得る。フラッシュの有効化は、指先の正確なビデオデータを取得するために十分な光がカメラによって検出されない場合、自動的に行われ得る。
344において、指、好適には指先の画像がカメラによって取得される。次に、346において、指、好適には指先が画像内で位置特定される。このプロセスは、画像における顔の位置特定に関して上述したように行われ得る。ただし、ニューラルネットが用いられる場合、ニューラルネットは、指、好適には指先を位置特定するために特に訓練される必要がある。光データからの手追跡は当技術分野において知られており、一連の画像内で指先を追跡するために、修正された手追跡アルゴリズムが用いられ得る。
348において、画像の指部分、好適には指先部分において皮膚が発見される。重ねて言うと、このプロセスは、一般に皮膚の位置特定に関して上述したように、任意選択的に指または指先の皮膚のために調整を加えて行われ得る。350において、たとえば上述したように、かつ背面カメラを用いる任意の特性および/またはカメラと指先の皮膚との直接接触のために調整を加えて、信号に関する時系列が決定される。可変のフレーム取得レートを考慮に入れると、時系列データは、与えられた固定フレームレートに対して好適に補間される。補間手順を実行する前に、好適には、補間が行われ得るように以下の条件が分析される。第1に、好適には、補間および前処理の後、rPPG分析のために十分なフレームが存在することを検証するために、フレームの数が分析される。
次に、ウィンドウ内で毎秒測定されるフレームが最小閾値を上回ることを検証するために、毎秒フレーム数が考慮される。その後、フレーム間の時間のずれが存在する場合、それが、たとえば0.5秒であってよい何らかの外部設定閾値未満であることを確認するために分析される。
上記条件のいずれかが満たされない場合、手順は、好適には全データをリセットして終了し、たとえば上述したように344に戻るように最後の有効フレームから再開する。
次に、352において、補間の後、好適にはビデオ信号が前処理される。前処理メカニズムは、より適切な3次元信号(RGB)を構築するために適用される。前処理は好適には、各チャネルを総電力に正規化すること、(ローパスフィルタによって推定される)平均値でチャネル値をスケーリングし、1を減じること、およびその後、バターワースバンドパスIIRフィルタにデータを通すことを含む。重ねて言うと、このプロセスは、好適には指先データのために調整される。354において、統計情報が抽出され、その後プロセスは、314から、たとえば図3Aに関して上述したように進んでよい。
図4は、この非限定的な例において、ユーザの顔から採取された光信号からの脈波形タイミングを含む詳細な生体統計値を生成するための非限定的で典型的なプロセスを示す。プロセス400において、ユーザビデオデータは、カメラ404によってユーザコンピュータデバイス402を介して取得される。その後、顔検出モデル406は、顔を発見するために用いられる。たとえば、複数の異なる顔境界に関して顔ビデオデータが検出された後、最も高い得点の顔境界以外は、好適には破棄される。この境界ボックスは、ユーザの顔に関連するデータが好適には他のビデオデータから分離されるように、入力画像から切り取られる。上述したように、皮膚の画素は好適には、ソフト閾値メカニズムを有するヒストグラムベースの分類器を用いて収集される。残りの画素から、チャネルごとに平均値が算出され、その後、410においてrPPGアルゴリズムを通過する。このプロセスにより、皮膚の色が決定されることが可能であるので、下地にある皮膚の色の影響から、光データへの脈拍の影響が分離され得る。プロセスは、408において、最も得点が高い顔境界ボックスに従って顔を追跡する。
上述したように、このプロセスは、指またはたとえば指先などその一部を検出するために適合され得る。好適には、指またはたとえば指先などその一部を検出するために境界検出アルゴリズムも用いられる。たとえば指または指先などその一部といったユーザの人体の関連部分を分離するために境界ボックスを切り取るといった後続のプロセスがある。たとえば指先などの検出されている人体の関連部分が皮膚を備える場合、適応ヒストグラムベース分類器も用いられ得る。408におけるプロセスは、背面カメラに指先を直接載せた場合に追跡の必要性を低減させるために、ユーザが背面カメラに指先を押し付けると、適合され得る。
好適には、並列経路において、別のカメラ404Bは、たとえばユーザの指先から得たビデオデータなどの指先光データを取得する。別のカメラ404Bは、ユーザコンピュータデバイス402の一部であってよい。
次に、410において、顔信号データからPPG信号が生成される。前処理の跡、スケーリングされたバッファのLalgo要素を用いてrPPGトレース信号が算出される。この手順は、次のように説明される。生補間データ(CHROM様式および投影行列(PM))から構築された異なる2つのrPPG分析信号間でマッチフィルタを用いて平均脈拍数が推定される。その後、相互相関が算出され、その上で平均瞬時脈拍数が探索される。周波数推定は、追加のロックインメカニズムによる非線形最小二乗(NLS)スペクトル分解に基づく。rPPG信号は、その後、適応ウィーナーフィルタリングを適用するPM法から導出され、初期推測信号は、瞬時脈拍周波数(vpr):sin(2πvprn)に依存する。また、信号再構築を押し進めるために周波数領域において追加のフィルタが用いられる。最後に、詳しく後述する手順によって得られる瞬時RR値に指数フィルタが適用される。
PPG信号もまた、好適には、410Bにおいて上述した指先ビデオデータから取得される。
その後、信号プロセッサは412において、好適には、PPG信号に基づいて複数の異なる関数を実行する。これらは好適には、414においてECG様式信号を再構築することと、416において指先パルス信号を算出することとを含む。両方の場合において、好適には、上述したような同期化のためのハードウェアクロック(不図示)に従ってタイミングが測定される。418において、信号プロセッサ412は次に、好適には、2つのパルス信号セット間の相対的遅延または差分タイミングを決定する。そのような差分タイミングは、指先において決定された脈波形と組み合わせて、好適には420においてPTTを算出するために用いられる。
図5A~5Eは、ビデオデータを取得し、その後、好適には補間、前処理、およびrPPG信号決定を含む、顔光データからrPPG信号を決定するための初期処理を行うための非限定的で典型的な方法を示し、そのような初期処理からのいくつかの結果を伴う。ここで図5Aを参照すると、プロセス500において、たとえば上述したように502においてビデオデータが取得される。
次に、504において、たとえば上述したように、カメラチャネル入力バッファデータが取得される。次に、506において、好適には一定かつ既定の取得レートが決定される。たとえば、一定かつ既定の取得レートは、Δt=1/fps~=33msに設定され得る。508において、各チャネルは、好適には、一定かつ既定の取得レートで時間バッファに個別に補間される。このステップにより、入力時間ジッタが取り除かれる。補間手順によりエイリアシング(および/または周波数の折返し)が加わるが、エイリアシング(および/または周波数の折返し)は、カメラによって画像が撮影された時点で既に発生している。一定のサンプルレートへの補間の重要性は、取得時間に従う心拍数の準定常の基本前提を満たすことである。補間に用いられる方法は、たとえば、三次エルミート補間に基づいてよい。
図5B~5Dは、スケーリング手順の様々な段階に関するデータを示す。色分けは各チャネルの色に対応しており、すなわち赤色は赤色チャネルに対応し、他も同様である。図5Bは、補間後のカメラチャネルデータを示す。
再び図5Aを参照すると、510~514において、色付きチャネルの各々(vec(c))の補間後、パルス式変調を向上させるために前処理が行われる。前処理は、好適には3つのステップを含む。510において、各チャネルの総電力への正規化が行われ、これによって全体外光変調による雑音が低減される。
次に、512において、スケーリングが行われる。たとえば、そのようなスケーリングは、平均値iで行われ、1を減じられてよく、それによって定常光源およびその輝度の影響が低減される。平均値は、セグメント長(Lalgo)によって設定されるが、この種の解決策は、低周波数成分を強化し得る。あるいは、平均値によるスケーリングの代わりに、ローパスFIRフィルタによるスケーリングが可能である。
ローパスフィルタの使用により、固有のレイテンシが加わり、それによってM/2フレームに補償が必要である。スケーリングされた信号は、
によって求められ、cs(n)は、フレームnの単一チャネルスケーリング値であり、bは、ローパスフィルタ係数である。チャネル色表記は、簡潔性のために上記式から除去された。
514において、スケーリングされたデータは、バターワースバンドパスIIRフィルタに通される。
スケーリング手順の出力は、→sであり、各新規フレームは、各カメラチャネルに関するレイテンシを新規フレームに加える。留意点として、簡潔性のために、フレームインデックスnが用いられるが、これは実際には(ローパスフィルタにより)フレームn-M/2を指す。
図5Cは、カメラ入力のパワー正規化、バンドパスフィルタ前のローパススケーリングされたデータのプロットを示す。図5Dは、バンドパスフィルタ前のパワースケーリングされたデータのプロットを示す。図5Eは、2つの正規化手順を用いて全ての被験者に関する平均絶対偏差の比較を示し、フィルタ応答は図5E-1のように与えられ、重み応答(平均値による平均化)は図5E-2のように与えられる。図5E-1は、前処理フィルタの大きさおよび周波数応答を示す。青色の線は、M=33タップのローパスFIRフィルタを表し、赤色の線は、三次IIRバターワースフィルタを示す。図5E-2は、rPPGトレースを平均化するために用いられる長さ64のハンウィンドウ重み応答を示す。
516において、脈拍数を決定するためにCHROMアルゴリズムが適用される。このアルゴリズムは、
Sc,1=3sr-2sg (4)
Sc,2=1.5sr+sg-1.5sb (5)
によって定義される2つの平面に信号を投影することによって適用される。
Sc,1=3sr-2sg (4)
Sc,2=1.5sr+sg-1.5sb (5)
によって定義される2つの平面に信号を投影することによって適用される。
その後、2つの差
としてrPPG信号が採取され、σ(・・・)は、信号の標準偏差である。留意点として、2つの投影信号は、それらの最大変動によって正規化された。CHROM法は、スペキュラ光反射を最小限にするために導出される。
次に、518において、脈拍数を決定するために投影行列が適用される。投影行列(PM)法に関して、信号は、パルス状方向に投影される。3つの要素が直交しないにもかかわらず、驚くべきことに、この投影は、CHROMよりも良好な信号対雑音を有する非常に安定した解決策をもたらすことが分かった。PM法を得るために、RGB信号の強度、スペキュラ、およびパルス状要素である行列要素が決定される。
上記行列要素は、たとえばde Haan氏およびVan Leest氏による論文(G de Haan and A van Leest.Improved motion robustness of remote-ppg by using the blood volume pulse signature.Physiological Measurement,35(9):1913,2014)から決定され得る。この論文において、動脈血からの(ゆえに脈拍からの)信号は、RGB信号から決定され、血液量スペクトルを決定するために用いられ得る。
この例に関して、強度は1に正規化される。パルス状方向の投影は、上記行列を反転させ、パルス状に対応するベクトルを選択することによって発見される。その結果、
pm=-0.26sr+-0.83sg-0.50sb (9)
が求められる。
pm=-0.26sr+-0.83sg-0.50sb (9)
が求められる。
520において、2つの脈拍数結果は、rPPGを決定するために相互相関される。rPPGの決定は、図6に関して詳しく説明される。
図6Aは、脈拍数推定および顔に関して取得された光データからのrPPGの決定のための非限定的で典型的な方法に関し、図6B~6Cは、この方法のいくつかの結果に関する。この方法は、脈拍周波数vprを発見するために、図5Aに関して上述したCHROM法およびPM rPPG法の出力を用いる。この方法は、過去のLalgoフレームにわたる平均脈拍数を探索することを含む。周波数は、ロックインメカニズムの適用による非線形最小二乗スペクトル分解を用いることによって、(CHROMとPMとの間の)マッチフィルタの出力から抽出される。
ここで図6Aを参照すると、方法600において、プロセスは602において、CHROMおよびPM出力間のマッチフィルタを算出することによって開始する。マッチフィルタは、CHROMおよびPM法の出力間の相関を算出することによって単純に行われる。次に604において、高調波を有する周期関数に基づいて、非線形最小二乗(NLS)周波数推定のコスト関数が算出される。
上記式において、xはモデル出力であり、alおよびblは周波数成分の重みであり、lはその高調波次数であり、Lはモデル内の次数の数であり、vは周波数であり、(n)は加法雑音成分である。その後、606において、O(N log N)+O(NL)の計算量において、Nielsen氏他によるアルゴリズム(Jesper Kjaer Nielsen, Tobias Lindstrom Jensen, Jesper Rindom Jensen, Mads Graesboll Christensen, and Soren Holdt Jensen. Fast fundamental frequency estimation:Making a statistically efficient estimator computationally efficient. Signal Processing,135:188~197,2017)を適用することによって対数尤度スペクトルが算出される。
Nielsen氏他において、周波数は、全ての高調波次数の最大ピークアウトの周波数として設定される。この方法自体は一般的な方法であり、この例では帯域周波数パラメータを変更することによって適合され得る。このモデルに固有の特徴は、高い次数が低い次数よりもコスト関数スペクトルにおける多くの局所最大ピークを有する点である。この特徴は、ロックイン手順のために用いられる。
608において、ロックインメカニズムは、入力としてターゲット脈拍周波数vtragetを得る。その後610において、この方法により、次数1=Lのコスト関数スペクトルの全てのローカル最大ピーク振幅(Ap)および周波数(vp)が求められる。各局所最大に関して、以下の関数が推定される。
この関数は、信号強度と、ターゲット周波数との相違とのバランスをとる。610において、出力脈拍数は、上記関数f(Ap、vp、vtraget)を最大化するローカルピークvpとして設定される。
図6Bおよび図6Cは、実行例の典型的な再構築されたrPPGトレース(青色の線)を示す。赤色の円は、ピークR時間を示す。図6Bは、時間t=0sに開始し時間t=50sまでのトレースを示す。図6Cは、トレースの急上昇を示し、RR時間間隔もミリ秒単位で示す。
次に612~614において、瞬時rPPG信号は、平均脈拍周波数(vpr)の周囲でウィーナーフィルタおよびFFTガウスフィルタの2つの動的フィルタによってフィルタされる。612において、ウィーナーフィルタが適用される。所望のターゲットはsin(2πvprn)であり、nは(時間を表す)インデックス番号である。614において、FFTガウスフィルタは、vpr付近の信号を取り除くことを目標とするので、
の形態のガウシアン形状が用いられ、その幅としてσgを有する。その名が示すように、このフィルタリングは、信号をその周波数領域(FFT)に変換し、それにg(v)を乗算し、時間領域に再び変換し、実部成分を取り出すことによって行われる。
上記手順の出力は、平均脈拍数vprを有する長さLalgoのフィルタされたrPPGトレース(pm)である。この出力は、観察されたビデオフレームごとに取得され、重なり合う時系列のパルスを構築する。これらの時系列は、HRV処理に適した最終的な平均rPPGトレースを生成するために平均化される必要がある。これは、Wang氏他の論文(W.Wang, A.C.den Brinker, S.Stuijk, and G.de Haan. Algorithmic principles of remote ppg. IEEE Transactions on Biomedical Engineering,64(7):1479~1491,2017年7月)による以下の式(nは時間を表す)、
t(n-Lalgo+l)=t(n-Lalgo+l)+w(l)pm(l) (13)
を用いて、フィルタされたrPPG信号(pm)の重複および追加を用いて行われ、式中、lは0~Lalgoのランニングインデックスであり、w(i)は重み関数であり、出力トレースの構成およびレイテンシを設定する。その後、結果として生じるピーク(収縮期ピークを表す最大値)を取得すると、時間における距離としていわゆるRR間隔を構築することが可能である。時間領域および周波数領域の両方における統計測定値としてHRVパラメータを検索するために一連のRR間隔を用いることが可能である。
t(n-Lalgo+l)=t(n-Lalgo+l)+w(l)pm(l) (13)
を用いて、フィルタされたrPPG信号(pm)の重複および追加を用いて行われ、式中、lは0~Lalgoのランニングインデックスであり、w(i)は重み関数であり、出力トレースの構成およびレイテンシを設定する。その後、結果として生じるピーク(収縮期ピークを表す最大値)を取得すると、時間における距離としていわゆるRR間隔を構築することが可能である。時間領域および周波数領域の両方における統計測定値としてHRVパラメータを検索するために一連のRR間隔を用いることが可能である。
図7は、本発明の少なくともいくつかの実施形態に係る、PTT決定のための方法の非限定的で典型的な実施に関する。決定されたPTTは、その後、図示するようにBP決定のために用いられ得る。
方法700に示すように、この方法は702において、好適には上述したような複数のビデオカメラからのセンサデータの取得によって開始する。ただし、信号を提供するために同じ種類のセンサを用いる必要はない。任意選択的に、適当な同期が提供される限り、同じまたは異なる任意の適当な複数のセンサが用いられ得る。たとえば、好適には、サンプリングレートは一定かつ既知であり、ハードウェアはタイムスタンプを提供する。その後、このアプローチは、同じサンプリングレートでサンプリングされる信頼できる信号を生成するためにデシメーション/補間手順を用いる。誤った算出を防止するために全てのセンサに関して同期されたクロックを用いることが好適である。
次に、704において、上述したクロック同期に従って信号前処理が行われる。そのような信号処理は、同じ原点をもたらすように時間内のセンサデータを整列させることを含む。この整列は、ハードウェアクロックと、センサ間で検出されたハードウェア遅延との組み合わせに従って行われる。加えて、センサデータは、同じサンプリングレートをもたらすために補間/デシメートされる。これは、センササンプリングレートに関する予備知識によって行われ得る。好適には、線形補間またはKNN補間ではなく、エルミート三次補間または同様の補間が用いられる。そのような補間は、好適には、データ内のスパイクや他の雑音を防ぐように選択される。任意選択的に、カーネル密度推定器(KDE)に基づくトレンド除去アルゴリズムが用いられ得る。
好適には、センサデータは、706においてSNR(信号対雑音比)の信頼値を高めるために雑音除去される。この段階で、702における信号取得に戻ることが必要になり得る。好適には、SNRを改善するために、たとえばウェーブレットおよびDCTなどの周波数ベースのアルゴリズムがKDEと共に用いられる。多次元(rPPG/PPGなどのマルチチャネル)センサの場合、周囲雑音および他の雑音を除去するために、PCA(主成分分析)またはICA(独立成分分析)が用いられ得る。
雑音除去の後、センサデータは、好適には、同じレベルの大きさをもたらすために正規化される。センサデータはまた、好適には、HR算出に適した帯域幅をもたらすために[0.5,4]Hz間でフィルタリングされる。そのようなフィルタリングは、バターワースN次バンドパスを用いることによって行われ得る。簡潔性のために、Nは3に設定され得る。
708において、PPG様式の信号構築が行われる。この段階は、多次元センサと単一チャネルプローブとで異なる。単一チャネル(1次元)センサの場合、手順は以下の通りである。まず、たとえばNLS(非線形最小二乗(NLS)周波数推定)またはPSD(パワースペクトル密度)ベースの方法のような基本周波数推定メカニズムを用いて、粗基本周波数が決定される。次に、提案された信号が、好適には正弦波として構築される。次に、ウィーナーフィルタリング手順を用いて、保存初期位相および遅延を再構築する。次に、自動相関が算出される。
多次元の例は、好適には、以下のような予備段階を含む。データの投影行列であるN×Mの行列が算出され、ここでNはチャネルの数であり、Mは、各チャネルに関して1×Mベクトル内に取得されたデータの量である。このベクトルは、rPPGのために用いられる上述したCHROM、POS、およびPMに関して生成され得る。この手順は、各チャネルに関する平均および分散のみを伴うので、PCAおよびICAも用いられ得る。PCAまたはICAは、投影行列がPCAと近くなることから、3より多い数の次元またはセンサを有するチャネルに好適である。取得された信号は、その後、単一チャネルと同様に処理される。
710において、HRが決定される。たとえば、任意選択的に、基本周波数は自動相関によりHRとして算出される。微細周波数は、好適には、所与の帯域幅に関して提案される周波数の付近で、FFTベースの方法論を用いて決定される(サンプリング周波数に依存する)。任意選択的に、決定されたHRは、別のセンサと比較される。それらが所定の閾値範囲内で十分に類似している場合、手順は好適には停止し、そうでない場合、好適には新たなデータが取得される。
712において、複数のセンサから受信された異なる信号間の遅延が算出される。たとえば、遅延は、センサアレイにおいて受信された信号間の到着時間差の発見を参照する遅延時間推定(TDE)に従って算出され得る。一般的な信号モデルは、
γi[n]=αis[n-Ti]+qi[n],i-1,2・・・,M,n=0,1,・・・,N-1
であり、ここでγi[n]は受信信号であり、s[n]は関心信号であり、利得/減衰および伝搬遅延であるαおよびTiは、i番目のセンサにおける雑音である。
γi[n]=αis[n-Ti]+qi[n],i-1,2・・・,M,n=0,1,・・・,N-1
であり、ここでγi[n]は受信信号であり、s[n]は関心信号であり、利得/減衰および伝搬遅延であるαおよびTiは、i番目のセンサにおける雑音である。
M個のセンサが存在し、各センサでN個の観察が収集される。この例において、M=2であり、Nはできる限り大きい(通常、30~60秒の観察)。
上述の通り、TDEのタスクは、
Ti,j=-Ti,j=Ti-Tj、 i>j、 i,j=1,2,・・・、M
を推定することである。
Ti,j=-Ti,j=Ti-Tj、 i>j、 i,j=1,2,・・・、M
を推定することである。
HR値が一致した場合に両方のセンサの出力を取得すると、前段階から取得された自動相関関数または再構築されたPPG様式信号から直接遅延を算出することが可能である。
このプロセスは、自動相関とPPG信号との両方に適用される場合、いくつかの方法論の組み合わせを用いる。この組み合わせにより、よりロバストな結果が生じる。
遅延時間推定の傾斜法は、最小限にされるコスト関数に関する情報に依存するベクトルで遅延を更新することに基づく。傾斜アルゴリズムは、提案された遅延の周囲の二次テイラー展開としてコスト関数を伴う。ガウス-ニュートンの再急降下および最小平均二乗(LMS)法に基づく傾斜アルゴリズムが適用され得る。好適には、以下で簡単に説明するLMS法が用いられる。
TDEは、時間t=kTsにサンプリングされる、2つのセンサに入射する2つの離散時間信号を考慮し、ここでTsは(簡潔性のために1と仮定された)サンプリング期間であり、以下の形態で上述したように
x(k)=A1,s(k)+v(k) (1)
y(k)=A2,s(k-T)+n(k) (2)
と表され、ここでs(k)は雑音のないソース信号に対応し、s(k-T)は遅延であり、A1およびA2はそれらの一定振幅である。明記されず、一般性を欠かない場合、Aの値は結果的に1であると仮定される。n(k)およびv(k)は、それぞれ分散σn2およびσv2の無相関なゼロ平均白色ガウス雑音である。
x(k)=A1,s(k)+v(k) (1)
y(k)=A2,s(k-T)+n(k) (2)
と表され、ここでs(k)は雑音のないソース信号に対応し、s(k-T)は遅延であり、A1およびA2はそれらの一定振幅である。明記されず、一般性を欠かない場合、Aの値は結果的に1であると仮定される。n(k)およびv(k)は、それぞれ分散σn2およびσv2の無相関なゼロ平均白色ガウス雑音である。
変数Tは、推定される未知の遅延時間を表し、これは離散時間モデルにおける真の遅延に最も近い整数に近似される。提案される方法は、係数を更新するためにLMSが用いられる場合、適応フィルタWのカスケードを用いる。
MがWの長さである場合、Dは、入力信号の相関を失わせるために提案される遅延であり、wi(k)は、時間kにおけるフィルタ係数である。誤差項は、
Z(k)=x(k)z(k)
によって求められる。
Z(k)=x(k)z(k)
によって求められる。
hベクトルがシステムインパルス応答である。遅延時間推定器の出力は、
と表すことができる。gは、システムインパルス応答の推定値であり、推定器誤差は、
として求められる。K回の反復における遅延時間推定値は、
として求められる。
相互相関項が最大になる時間は遅延時間推定値に対応するので、2つの信号間の遅延時間を推定するために、2つの信号の相互相関も用いられる。簡単に言うと、後述の2つのセンサに関して、
x1(t)=S1(t)+n1(t) (1)
x2(t)=αS1(t+D)+n2(t) (2)
である。
x1(t)=S1(t)+n1(t) (1)
x2(t)=αS1(t+D)+n2(t) (2)
である。
一般化相互相関を用いると、各センサ間の遅延が分かる。このための技術は、一般概念が同じであっても変化する。この方法に特有のプリフィルタは、信号を「クリーンアップ」するために周波数領域において用いられる。その後、信号は相互相関され、その結果にピーク検出が行われ、最大遅延点が決定される。以下の画像は、一般化相互相関(GCC)の適用に関する連続時間モデルを示す。このモデルにおいて、信号をより有用な形態に「クリーニング」するために使用計量関数またはプリフィルタが用いられる。この実験のために、用いられた方法は、標準相互相関、PHAT、およびSCOT法であった。
残念ながら、相関法は一般に、センサ結果が周期的である場合、典型的な信号期間よりも大きい遅延には適しておらず、反対符号を用いても誤った遅延を提供する。したがって、考えられる遅延の方向などの追加情報が必要であり、たとえば、顔から指までのPPGの遅延は正でなくてはならず、遅延は、Hzで付与される平均RR間隔(RRは1/HRを表す)未満でなくてはならない。
2つのセンサ間の遅延時間を算出する別の方法は、遅延の確率密度関数の最大値を決定することによって見出され得る。この手順は、KDE技術を用いる。
提案される方法は、センサ間の遅延を算出するために用いられる2つの異なる方法間での一致をもたらす。
次に714において、PTTが算出される。血液が動脈を流れる際、圧力波は、脈波速度(PWV)と呼ばれる特定の速度で伝搬する。PWVは、動脈および血液の両方の弾性特性に依存する。メーンズコルテベークの式によると、PWVは、血管および流体の特性の関数として定められる[Bramwell JC, Hill AV. The Velocity of the Pulse Wave in Man. Proc. Royal Society for Experimental Biology &Medicine. 1922;93:298~306;Ma,Y.,Choi,J.,Hourlier-Fargette,A.,Xue,Y.,Chung,H.U.,Lee,J.Y.,et al.(2018).Proc.Natl.Acad.Sci.U.S.A.115:11144~11149.doi:10.1073/pnas.1814392115]。
ここで、Lは血管長であり、PTTは、脈圧がその長さを伝送するのに費やす時間であり、ρは血液密度であり、rは血管の内径であり、hは血管壁の厚さであり、Eは血管壁の弾性率である。
716において、PTTからBPが算出され得る。ブラムウェルヒルの式およびメーンズコルテベークの式は、BPとPTTとの間の対数関係を与える。BPとPTTとの関係は、
BP=a*loge(PTT)+b. (4)
と表すことができる。
BP=a*loge(PTT)+b. (4)
と表すことができる。
上述の式は、
BP=a*(PTT)+b.
を得るために、時間に関して微分され得る[Sharma M., Barbosa K., Ho V., Griggs D., Ghirmai T., Krishnan S., Hsiai T., Chiao J.C., Cao H. Cuff-Less and Continuous Blood Pressure Monitoring:A Methodological Review. Technologies. 2017;5:21. doi:10.3390/technologies5020021]。
BP=a*(PTT)+b.
を得るために、時間に関して微分され得る[Sharma M., Barbosa K., Ho V., Griggs D., Ghirmai T., Krishnan S., Hsiai T., Chiao J.C., Cao H. Cuff-Less and Continuous Blood Pressure Monitoring:A Methodological Review. Technologies. 2017;5:21. doi:10.3390/technologies5020021]。
ここで、aおよびbは被験者固有の定数であり、基準BPと対応するPTTとの間の回帰分析を介して得られ得る[Chen W., Kobayashi T., Ichikawa S., Takeuchi Y., Togawa T. Continuous estimation of systolic blood pressure using the pulse arrival time and intermittent calibration. Med.Biol.Eng.Comput.2000;38:569~574. doi:10.1007/BF02345755]。この作業で用いられるBPと遅延時間との数学的関係は、第2の変数としてHRも利用する線形モデルである。その後、このモデルは、
BP=a*(PTT)+b*HR+c. (5)
となる。
BP=a*(PTT)+b*HR+c. (5)
となる。
ただし、式(5)のPTTは、相対的PTTではなく、ECGおよびPTTのピーク間の遅延を表す。
通常のPTTを相対的PTTに変更することにより、問題の形が維持され、回帰分析によって容易に算出され得る係数の値のみが影響を受ける。
明確性のために別々の実施形態の文脈で説明される本発明の特定の特徴は、単一の実施形態に組み合わせて提供されてもよいことが理解される。逆に、簡潔性のために単一の実施形態の文脈で説明される本発明の様々な特徴は、別々に、または任意の適当な部分的組み合わせで提供されてもよい。
本発明は、その特定の実施形態と関連して説明されたが、当業者には多数の代替、修正、および変形例が明らかであることは明白である。したがって、添付の特許請求の範囲の主旨および広範な範囲に収まるそのような代替、修正、および変形例の全てを包含することが意図されている。本明細書において言及される全ての出版物、特許文献、および特許出願は、個々の出版物、特許文献、または特許出願が参照によって本明細書に組み込まれることが明確かつ個別に示された場合と同様に、参照によってその全体が本明細書に組み込まれる。加えて、本出願において任意の参照文献を引用または識別することは、そのような参照文献が本発明の従来技術として利用可能であることを認めるものと解釈されてはならない。
Claims (47)
- 被験者のPTT(脈遷移時間)を算出するための方法であって、カメラによって前記被験者の顔および指から光データを取得することと、それぞれ前記カメラと通信状態にあるコンピュータデバイスによって、前記被験者の前記顔および指に関連するデータを選択するために前記光データを分析することと、前記顔の皮膚および前記指の皮膚から光データを検出し、経過期間に到達するまで前記光データを収集することによって前記光データから時系列を決定し、その後、前記経過期間に関して前記収集された光データから前記時系列を算出することと、前記時系列から前記PTTを算出することとを備える方法。
- 前記光データはビデオデータを備え、前記指の皮膚から前記光データを前記取得することは、前記被験者の前記顔のビデオデータを取得することを備える、請求項1に記載の方法。
- 前記指先の前記ビデオデータを前記取得することは、前記指先を前記カメラに載せることによって前記被験者の前記指先の皮膚のビデオデータを取得することを備える、請求項2に記載の方法。
- 前記カメラは複数のモバイルフォンカメラを備え、前記光データを前記取得することは、前記複数のモバイルフォンカメラからビデオデータを取得することを更に備え、前記顔からの光データは第1のモバイルフォンカメラによって取得され、前記指からの光データは第2のモバイルフォンカメラによって取得される、請求項3に記載の方法。
- 前記指および前記顔のビデオデータを取得するために、前記被験者は、前記指を背面モバイルフォンカメラに載せ、前記被験者の前記顔は、前面モバイルフォンカメラの正面に位置する、請求項4に記載の方法。
- 前記モバイルフォンカメラ上の前記指先は、光を提供するために前記モバイルフォンカメラに関連するフラッシュを起動することを更に備える、請求項4または5に記載の方法。
- 前記第1および第2のモバイルフォンからの前記ビデオデータの各々は、前記指および顔の皮膚からのパルス信号情報を提供するために分析される、請求項4~6のいずれかに記載の方法。
- 前記第1および第2のモバイルフォンから決定されたパルス信号間の遅延が、ハードウェアクロックを介した同期に従って決定される、請求項4~7のいずれかに記載の方法。
- 前記パルス信号は同期され、その後、同じサンプリングレートを生じるように補間される、請求項8に記載の方法。
- 前記コンピュータデバイスは、前記モバイルフォンカメラから物理的に分離しているが、通信状態にある、請求項1~9のいずれかに記載の方法。
- 前記コンピュータデバイスは、モバイル通信デバイスを備える、請求項1~10のいずれかに記載の方法。
- 前記顔の皮膚から前記光データを前記検出することは、複数の顔境界を決定し、最も確率の高い前記顔境界を選択し、前記顔からのビデオデータにヒストグラム分析を適用することを備える、請求項1~11のいずれかに記載の方法。
- 前記複数の顔境界を前記決定することは、前記顔境界を決定するために前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用することを備える、請求項12に記載の方法。
- 前記指の皮膚から前記光データを前記検出することは、複数の皮膚境界を決定し、最も確率が高い前記皮膚境界を選択し、前記皮膚からのビデオデータにヒストグラム分析を適用することを備える、請求項1~13のいずれかに記載の方法。
- 前記複数の皮膚境界を前記決定することは、前記皮膚境界を決定するために前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用することを備える、請求項14に記載の方法。
- 前記指の皮膚から前記光データを前記検出することは、複数の指先境界を決定し、最も確率が高い前記指先境界を選択し、前記指先からのビデオデータにヒストグラム分析を適用することを備える、請求項1~15のいずれかに記載の方法。
- 前記複数の指先境界を前記決定することは、前記指先境界を決定するために前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用することを備える、請求項16に記載の方法。
- 前記PTTを前記決定することは、前記顔の皮膚および前記指の皮膚からの前記光データからの測定値にメタデータを結合することを更に備え、前記メタデータは、前記被験者の体重、年齢、身長、生物学的性別、体脂肪率、および体筋率の1または複数を備える、請求項1~17のいずれかに記載の方法。
- 少なくとも1つの追加の生理信号から前記PTTを決定することを更に備える、請求項1~18のいずれかに記載の方法。
- 少なくとも前記PTTから少なくとも1つの追加の生理信号を決定することを更に備える、請求項19に記載の方法。
- 前記生理信号は、緊張、血圧、呼気量、およびpSO2(酸素飽和度)から成るグループから選択される、請求項19および20に記載の方法。
- 前記PTTを算出する前に、前記パルス信号を雑音除去および正規化することを更に備える、請求項1~21のいずれかに記載の方法。
- 前記パルス信号をフィルタリングすることを更に備える、請求項22に記載の方法。
- PPG様式信号構築を行うこと、前記PPG様式信号構築から心拍数(HR)を決定すること、および前記HRから前記PTTを算出することを更に備える、請求項23に記載の方法。
- 前記PTTから血圧を算出することを更に備える、請求項24に記載の方法。
- 被験者のPTT(脈遷移時間)を算出するためのシステムであって、前記被験者の顔および指先から光データを取得するためのカメラと、前記カメラから光データを受信するためのユーザコンピュータデバイスとを備え、前記ユーザコンピュータデバイスは、プロセッサと、複数の命令を格納するためのメモリとを備え、前記プロセッサは、前記被験者の前記顔および前記指先に関連するデータを選択するために前記光データを分析し、前記顔の皮膚および前記指先の皮膚から光データを検出し、経過期間に到達するまで前記光データを収集することによって前記光データから時系列を決定し、その後、前記経過期間に関して前記収集された光データから前記時系列を算出し、前記時系列から前記PTTを算出するために前記命令を実行する、システム。
- 前記メモリは、定義済みのネイティブ命令コードセットを格納するために構成され、前記プロセッサは、前記メモリ内に格納された前記定義済みのネイティブ命令コードセットから選択される対応する基本命令の受信に応答して定義済みの基本動作セットを行うように構成され、前記メモリは、前記被験者の前記顔に関連するデータを選択するために前記光データを分析することに関する、前記ネイティブ命令セットから選択される第1の機械コードセットと、前記顔の皮膚から光データを検出することに関する、前記ネイティブ命令セットから選択される第2の機械コードセットと、経過期間に到達するまで前記光データを収集することによって前記光データから時系列を決定し、その後、前記経過期間に関して前記収集された光データから前記時系列を算出することに関する、前記ネイティブ命令セットから選択される第3の機械コードセットと、前記時系列から前記生理信号を算出することに関する、前記ネイティブ命令セットから選択される第4の機械コードセットとを格納する、請求項26に記載のシステム。
- 前記メモリは、複数の顔境界を決定することを備える、前記顔の皮膚から前記光データを検出することに関する、前記ネイティブ命令セットから選択される第5の機械コードセットと、最も確率が高い前記顔境界を選択することに関する、前記ネイティブ命令セットから選択される第6の機械コードセットと、前記顔からのビデオデータにヒストグラム分析を適用することに関する、前記ネイティブ命令セットから選択される第7の機械コードセットとを更に備える、請求項27に記載のシステム。
- 前記メモリは、前記顔境界を決定するために前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用することに関する、前記ネイティブ命令セットから選択される第8の機械コードセットを更に備える、請求項28に記載のシステム。
- 前記メモリは、定義済みのネイティブ命令コードセットを格納するために構成され、前記プロセッサは、前記メモリ内に格納された前記定義済みのネイティブ命令コードセットから選択される対応する基本命令の受信に応答して定義済みの基本動作セットを行うように構成され、前記メモリは、前記被験者の前記指先に関連するデータを選択するために前記光データを分析することに関する、前記ネイティブ命令セットから選択される第9の機械コードセットと、前記指先の皮膚から光データを検出することに関する、前記ネイティブ命令セットから選択される第10の機械コードセットと、経過期間に到達するまで前記光データを収集することによって前記光データから時系列を決定し、その後、前記経過期間に関して前記収集された光データから前記時系列を算出することに関する、前記ネイティブ命令セットから選択される第11の機械コードセットと、前記時系列から前記生理信号を算出することに関する、前記ネイティブ命令セットから選択される第12の機械コードセットとを格納する、請求項1~29のいずれかに記載のシステム。
- 前記メモリは、複数の指先境界を決定することを備える、前記指先の皮膚から前記光データを検出することに関する、前記ネイティブ命令セットから選択される第13の機械コードセットと、最も確率が高い前記指先境界を選択することに関する、前記ネイティブ命令セットから選択される第14の機械コードセットと、前記指先からのビデオデータにヒストグラム分析を適用することに関する、前記ネイティブ命令セットから選択される第15の機械コードセットとを更に備える、請求項30に記載のシステム。
- 前記メモリは、前記指先境界を決定するために前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用することに関する、前記ネイティブ命令セットから選択される第16の機械コードセットを更に備える、請求項31に記載のシステム。
- 光データを取得するための前記カメラに前記指先が押し付けられることにより、指先検出ではなく皮膚検出のみが行われる、請求項31に記載のシステム。
- 前記カメラはモバイルフォンカメラを備え、前記光データは、前記モバイルフォンカメラからビデオデータとして取得される、請求項1~33のいずれかに記載のシステム。
- 前記コンピュータデバイスは、モバイル通信デバイスを備える、請求項34に記載のシステム。
- 前記モバイルフォンカメラは背面カメラを備え、前記ビデオデータを取得するために前記被験者の指先が前記カメラに載せられる、請求項35に記載のシステム。
- 前記光データを取得するための光を提供するために、前記モバイルフォンカメラに関連するフラッシュを更に備える、請求項34または35に記載のシステム。
- 前記メモリは、複数の顔または指先境界を決定することに関する、前記ネイティブ命令セットから選択される第9の機械コードセットと、最も確率が高い前記顔または指先境界を選択することに関する、前記ネイティブ命令セットから選択される第10の機械コードセットと、前記顔または指先からのビデオデータにヒストグラム分析を適用することに関する、前記ネイティブ命令セットから選択される第11の機械コードセットとを更に備える、請求項34~37のいずれかに記載のシステム。
- 前記メモリは、前記顔または指先境界を決定するために前記ビデオデータにマルチパラメータ畳み込みニューラルネット(CNN)を適用することに関する、前記ネイティブ命令セットから選択される第12の機械コードセットを更に備える、請求項38に記載のシステム。
- 前記PTTを表示するためのディスプレイを更に備える、請求項1~39のいずれかに記載のシステム。
- 前記ユーザコンピュータデバイスは、前記ディスプレイを更に備える、請求項40に記載のシステム。
- 前記ユーザコンピュータデバイスは、前記PTTを送信するための送信機を更に備える、請求項1~41のいずれかに記載のシステム。
- 前記PTTを前記決定することは、前記光データにメタデータを結合することを更に備え、前記メタデータは、前記被験者の体重、年齢、身長、生物学的性別、体脂肪率、および体筋率の1または複数を備える、請求項1~42のいずれかに記載のシステム。
- 前記生理信号は、緊張、血圧、呼気量、およびpSO2(酸素飽和度)から成るグループから選択される、請求項43に記載のシステム。
- 被験者からPTT(脈遷移時間)を算出するためのシステムであって、前記被験者の指から光データを取得するための背面カメラと、前記カメラから光データを受信するためのユーザコンピュータデバイスとを備え、前記ユーザコンピュータデバイスは、プロセッサと、複数の命令を格納するためのメモリとを備え、前記プロセッサは、前記被験者の前記顔に関連するデータを選択するために前記光データを分析し、前記指の皮膚から光データを検出し、経過期間に到達するまで前記光データを収集することによって前記光データから時系列を決定し、その後、前記経過期間に関して前記収集された光データから前記時系列を算出し、前記時系列から前記PTTを算出するために前記命令を実行する、システム。
- 請求項1~45のいずれかに記載のシステムを更に備える、請求項45に記載のシステム。
- 被験者からPTT(脈遷移時間)を算出するための方法であって、前記被験者から前記PTTを算出するために、請求項1~46のいずれかに記載のシステムを動作させることを備える方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062963248P | 2020-01-20 | 2020-01-20 | |
US62/963,248 | 2020-01-20 | ||
PCT/IL2021/050058 WO2021149048A1 (en) | 2020-01-20 | 2021-01-19 | System and method for pulse transmit time measurement from optical data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023510943A true JP2023510943A (ja) | 2023-03-15 |
JPWO2021149048A5 JPWO2021149048A5 (ja) | 2024-01-23 |
Family
ID=76992156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022543697A Pending JP2023510943A (ja) | 2020-01-20 | 2021-01-19 | 光データによる脈遷移時間測定のためのシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20230056557A1 (ja) |
EP (1) | EP4093267A1 (ja) |
JP (1) | JP2023510943A (ja) |
CN (1) | CN115003215A (ja) |
CA (1) | CA3165174A1 (ja) |
IL (1) | IL294325A (ja) |
WO (1) | WO2021149048A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117694854A (zh) * | 2023-08-28 | 2024-03-15 | 荣耀终端有限公司 | 血压测量方法和电子设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8838209B2 (en) * | 2012-02-21 | 2014-09-16 | Xerox Corporation | Deriving arterial pulse transit time from a source video image |
US9504391B2 (en) * | 2013-03-04 | 2016-11-29 | Microsoft Technology Licensing, Llc | Determining pulse transit time non-invasively using handheld devices |
WO2015078735A1 (en) * | 2013-11-27 | 2015-06-04 | Koninklijke Philips N.V. | Device and method for obtaining pulse transit time and/or pulse wave velocity information of a subject |
KR101777738B1 (ko) * | 2015-07-07 | 2017-09-12 | 성균관대학교산학협력단 | 동영상을 이용하여 혈압을 추정하는 방법 |
GB2551201A (en) * | 2016-06-10 | 2017-12-13 | Polar Electro Oy | Multi-sensor system for estimating blood pulse wave characteristics |
US10335045B2 (en) * | 2016-06-24 | 2019-07-02 | Universita Degli Studi Di Trento | Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions |
-
2021
- 2021-01-19 IL IL294325A patent/IL294325A/en unknown
- 2021-01-19 JP JP2022543697A patent/JP2023510943A/ja active Pending
- 2021-01-19 CA CA3165174A patent/CA3165174A1/en active Pending
- 2021-01-19 WO PCT/IL2021/050058 patent/WO2021149048A1/en unknown
- 2021-01-19 EP EP21743727.6A patent/EP4093267A1/en active Pending
- 2021-01-19 US US17/788,314 patent/US20230056557A1/en active Pending
- 2021-01-19 CN CN202180010148.1A patent/CN115003215A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN115003215A (zh) | 2022-09-02 |
CA3165174A1 (en) | 2021-07-29 |
WO2021149048A1 (en) | 2021-07-29 |
EP4093267A1 (en) | 2022-11-30 |
US20230056557A1 (en) | 2023-02-23 |
IL294325A (en) | 2022-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2757943B1 (en) | Systems and methods for determining respiration information from a photoplethysmograph | |
JP2014530057A (ja) | フォトプレチスモグラフから呼吸情報を決定するためのシステムおよび方法 | |
US10206612B2 (en) | Methods and systems for extracting venous pulsation and respiratory information from photoplethysmographs | |
EP3292813A1 (en) | Method and device for processing bio-signals | |
Junior et al. | Methods for reliable estimation of pulse transit time and blood pressure variations using smartphone sensors | |
Chen et al. | Modulation model of the photoplethysmography signal for vital sign extraction | |
WO2019079829A9 (en) | Method of preprocessing and screening auscultatory sound signals | |
Mehrgardt et al. | Deep learning fused wearable pressure and PPG data for accurate heart rate monitoring | |
JP2023505111A (ja) | 光学データからの生理学的測定のためのシステムおよび方法 | |
Yen et al. | Blood Pressure and Heart Rate Measurements Using Photoplethysmography with Modified LRCN. | |
JP2023510943A (ja) | 光データによる脈遷移時間測定のためのシステムおよび方法 | |
Krizea et al. | Accurate detection of heart rate and blood oxygen saturation in reflective photoplethysmography | |
US20220323023A1 (en) | Method for determining respiratory rate | |
EP4373389A1 (en) | System and method for blood pressure estimate based on ptt from the face | |
Akbulut et al. | Estimation of Beat-to-Beat Interval from Wearable Photoplethysmography Sensor on Different Measurement Sites During Daily Activities | |
Deepakfranklin | Survey on Methods of Obtaining Biomedical Parameters from PPG Signal | |
RU2759708C1 (ru) | Система и способ для безманжетного определения артериального давления | |
CN116583216A (zh) | 从光学数据测量血压的***和方法 | |
KR102573068B1 (ko) | 고도화된 시각지능기반 비접촉 영상기반 혈압측정 방법 및 시스템 | |
US20240074668A1 (en) | Systems and methods for determination of pulse arrival time with wearable electronic devices | |
Mohan et al. | Real-time signal processing of photoplethysmographic signals to estimate the on-demand and continuous heart rate by spectral analysis | |
Janney et al. | Recognition of dicrotic notch in arterial blood pressure pulses using signal processing techniques | |
JP2023545426A (ja) | 光学データによる血中アルコール測定値のためのシステム及び方法 | |
Malar et al. | FPGA Implementation of Heart Rate Variability using rPPG and Peak Detection | |
Salazar Mendiola et al. | Application of a neural network to improve the automatic measurement of blood pressure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240115 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240301 |