JP7486208B2 - 疾患予測装置、予測モデル生成装置および疾患予測用プログラム - Google Patents
疾患予測装置、予測モデル生成装置および疾患予測用プログラム Download PDFInfo
- Publication number
- JP7486208B2 JP7486208B2 JP2021561395A JP2021561395A JP7486208B2 JP 7486208 B2 JP7486208 B2 JP 7486208B2 JP 2021561395 A JP2021561395 A JP 2021561395A JP 2021561395 A JP2021561395 A JP 2021561395A JP 7486208 B2 JP7486208 B2 JP 7486208B2
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- disease
- unit
- calculation unit
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 201000010099 disease Diseases 0.000 title claims description 142
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 title claims description 142
- 239000011159 matrix material Substances 0.000 claims description 196
- 238000004364 calculation method Methods 0.000 claims description 106
- 238000000354 decomposition reaction Methods 0.000 claims description 45
- 238000010801 machine learning Methods 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 10
- 238000010219 correlation analysis Methods 0.000 claims description 9
- 238000000034 method Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 208000019901 Anxiety disease Diseases 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000036506 anxiety Effects 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003340 mental effect Effects 0.000 description 3
- 230000000737 periodic effect Effects 0.000 description 3
- 208000020016 psychiatric disease Diseases 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 208000020401 Depressive disease Diseases 0.000 description 2
- 208000013738 Sleep Initiation and Maintenance disease Diseases 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 206010022437 insomnia Diseases 0.000 description 2
- 208000028173 post-traumatic stress disease Diseases 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 208000006096 Attention Deficit Disorder with Hyperactivity Diseases 0.000 description 1
- 206010011971 Decreased interest Diseases 0.000 description 1
- 206010012289 Dementia Diseases 0.000 description 1
- 206010012374 Depressed mood Diseases 0.000 description 1
- 206010013952 Dysphonia Diseases 0.000 description 1
- 208000000059 Dyspnea Diseases 0.000 description 1
- 206010013975 Dyspnoeas Diseases 0.000 description 1
- 208000012902 Nervous system disease Diseases 0.000 description 1
- 208000025966 Neurological disease Diseases 0.000 description 1
- 208000001431 Psychomotor Agitation Diseases 0.000 description 1
- 206010038743 Restlessness Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000036528 appetite Effects 0.000 description 1
- 235000019789 appetite Nutrition 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 230000003001 depressive effect Effects 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 206010016256 fatigue Diseases 0.000 description 1
- 210000004704 glottis Anatomy 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000000926 neurological effect Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 201000000980 schizophrenia Diseases 0.000 description 1
- 238000004092 self-diagnosis Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012421 spiking Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Public Health (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Pure & Applied Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Epidemiology (AREA)
- Biomedical Technology (AREA)
- Primary Health Care (AREA)
- Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Algebra (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Operations Research (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Description
以下、本発明の第1の実施形態を図面に基づいて説明する。図1は、第1の実施形態による予測モデル生成装置10の機能構成例を示すブロック図である。第1の実施形態による予測モデル生成装置10は、被験者が特定の疾患に罹っている可能性または罹患している場合の重症度を予測するための疾患予測モデルを生成するものである。疾患予測モデルの生成は、機械学習を用いて行う。第1の実施形態では一例として、うつ病に罹っている可能性または重症度を予測するための疾患予測モデルを生成するものとする。
・基本周波数:抑うつに罹患している患者の場合は、より低く、かつ一定時間内における最小周期区間の繰り返し回数がより少なくなる傾向がある。
・CPP:声門における息切れの特性を表す特徴量であり、うつ病患者に生じることのある発声障害の重症度の測定値として使用されている。
・フォルマント周波数:音声スペクトルにおいて時間的に移動している複数のピークであり、周波数の低い順に第1フォルマント、第2フォルマント、・・・、第Nフォルマントという。フォルマント周波数は声道の形状と関係し、抑うつとフォルマント周波数の音量との間には相関があることが知られている。
・MFCC:声道特性を表す特徴量であり、重症度の異なるうつ病患者における筋肉制御の喪失の程度の間接的指標となり得るものである。
X=[x1,x2,・・・,xT] ・・・(式1)
Y=[y1,y2,・・・,yT] ・・・(式2)
x1,x2,・・・,xTは、T個の所定時間単位ごとに算出された第1の音響的特徴量Xの時系列情報である。y1,y2,・・・,yTは、T個の所定時間単位ごとに算出された第2の音響的特徴量Yの時系列情報である。
Amn=f(Xm,Yn) ・・・(式3)
Xm=[x1+(m-1)*δ,x1+(m-1)*δ+1,x1+(m-1)*δ+2,・・・,x1+(m-1)*δ+(p-1)]
Yn=[y1+(n-1)*δ,y1+(n-1)*δ+1,y1+(n-1)*δ+2,・・・,y1+(n-1)*δ+(p-1)]
(m=n=1のときp=8、1<m,n≦2のときp=6、2<m,n≦3のときp=4、3<m,n≦4のときp=2)
X1=[x1,x2,x3,x4,x5,x6,x7,x8]
Y1=[y1,y2,y3,y4,y5,y6,y7,y8]
X1=[x1,x2,x3,x4,x5,x6]
Y2=[y3,y4,y5,y6,y7,y8]
X2=[x3,x4,x5,x6,x7,x8]
X1=[y1,y2,y3,y4,y5,y6]
X4=[x7,x8]
Y4=[y7,y8]
次に、本発明の第2の実施形態を図面に基づいて説明する。図5は、第2の実施形態による予測モデル生成装置10’の機能構成例を示すブロック図である。第2の実施形態による予測モデル生成装置10’も、被験者が特定の疾患に罹っている可能性または罹患している場合の重症度を予測するための疾患予測モデルを生成するものである。
11 学習用データ入力部
12 特徴量算出部
13,13’ 行列算出部
14 行列分解部(行列演算部)
15,15’ 予測モデル生成部
16 テンソル生成部(行列演算部)
20,20’ 疾患予測装置
21 予測対象データ入力部
22 特徴量算出部
23,23’ 行列算出部
24 行列分解部(行列演算部)
25,25’ 疾患予測部
26 テンソル生成部(行列演算部)
100 予測モデル記憶部
Claims (17)
- 時系列に値が変化する一連の時系列データを所定時間単位ごとに分割して分析することにより、複数種類の音響的特徴量をそれぞれ所定時間単位ごとに時系列に算出する特徴量算出部と、
上記特徴量算出部により所定時間単位ごとに時系列に算出された上記複数種類の音響的特徴量について、上記複数種類の音響的特徴量ごとに時間軸に沿って設定した所定時間長の移動窓に含まれる複数種類の音響的特徴量どうしの関係値として、トレンド除去相互相関解析値または相互情報量の少なくとも一方を算出する処理を、上記移動窓を所定遅延量ずつ遅延させて行うことにより、複数の関係値の組み合わせから成る空間遅延行列を算出する行列算出部と、
上記行列算出部により算出された上記空間遅延行列に対して所定の演算を行うことにより、上記空間遅延行列に特有の行列特有データを算出する行列演算部と、
上記行列演算部により算出された上記行列特有データを学習済みの疾患予測モデルに入力し、被験者の疾患レベルを予測する疾患予測部とを備え、
上記疾患予測モデルは、上記行列特有データが入力された際に上記被験者の疾患レベルを出力するように、学習用データを用いた機械学習処理により生成されている
ことを特徴とする疾患予測装置。 - 上記行列演算部は、上記行列算出部により算出された上記空間遅延行列に対して分解演算を行うことにより、上記空間遅延行列に特有の行列分解値を算出する行列分解部を含み、
上記疾患予測部は、上記行列分解部により算出された上記行列分解値を上記学習済みの疾患予測モデルに入力し、被験者の疾患レベルを予測する
ことを特徴とする請求項1に記載の疾患予測装置。 - 上記行列演算部は、上記行列算出部により算出された1以上の上記空間遅延行列を用いて、上記関係値のN次元テンソル(N≧1)を生成するテンソル生成部を含み、
上記疾患予測部は、上記テンソル生成部により生成された上記N次元テンソルを上記学習済みの疾患予測モデルに入力し、被験者の疾患レベルを予測する
ことを特徴とする請求項1に記載の疾患予測装置。 - 上記行列算出部は、上記関係値を算出する処理を上記音響的特徴量の組み合わせを変えてそれぞれ行うことにより、同じ行数および同じ列数から成る複数の空間遅延行列を算出し、
上記テンソル生成部は、上記行列算出部により算出された上記複数の空間遅延行列を用いて、上記関係値の3次元テンソルを生成し、
上記疾患予測部は、上記テンソル生成部により生成された上記3次元テンソルを上記学習済みの疾患予測モデルに入力し、被験者の疾患レベルを予測する
ことを特徴とする請求項3に記載の疾患予測装置。 - 上記行列算出部は、上記関係値を算出する処理を上記音響的特徴量の組み合わせを変えてそれぞれ行うことにより、同じ行数および同じ列数から成る複数のオリジナルの空間遅延行列を算出するとともに、当該複数のオリジナルの空間遅延行列どうしの差分を演算することによって1以上の差分系列の空間遅延行列を算出し、
上記テンソル生成部は、上記行列算出部により算出された上記複数のオリジナルの空間遅延行列および上記1以上の差分系列の空間遅延行列を用いて上記3次元テンソルを生成する
ことを特徴とする請求項4に記載の疾患予測装置。 - 上記行列算出部は、上記複数のオリジナルの空間遅延行列どうしの差分を演算することによって複数の1次差分系列の空間遅延行列を算出するとともに、上記複数の1次差分系列の空間遅延行列どうしの差分を演算することによって1以上の2次差分系列の空間遅延行列を算出することを特徴とする請求項5に記載の疾患予測装置。
- 上記特徴量算出部は、上記被験者と他者との一連の会話音声のデータを分析することにより、上記被験者による発話音声に関する複数種類の音響的特徴量を算出することを特徴とする請求項1~6の何れか1項に記載の疾患予測装置。
- 上記特徴量算出部は、上記被験者の声の強さ、基本周波数、ケプストラムピークプロミネンス(CPP)、フォルマント周波数、メル周波数ケプストラム係数(MFCC)のうち少なくとも2つ以上を算出することを特徴とする請求項7に記載の疾患予測装置。
- 上記特徴量算出部は、3種類以上の音響的特徴量をそれぞれ所定時間単位ごとに時系列に算出することを特徴とする請求項1に記載の疾患予測装置。
- 上記特徴量算出部は、上記被験者と他者との一連の会話音声に係る時系列データを分析することにより、上記被験者による発話音声に関する複数種類の音響的特徴量として、上記被験者の声の強さ、基本周波数、ケプストラムピークプロミネンス(CPP)、フォルマント周波数、メル周波数ケプストラム係数(MFCC)のうち少なくとも3種類以上を算出することを特徴とする請求項9に記載の疾患予測装置。
- 上記行列算出部は、上記3種類以上の音響的特徴量の組み合わせから2つ以上の空間遅延行列を算出し、
上記行列演算部は、上記2つ以上の空間遅延行列からそれぞれ特有の上記行列特有データを算出する
ことを特徴とする請求項9または10に記載の疾患予測装置。 - 疾患レベルが既知である複数人の対象者に関して取得された、時系列に値が変化する一連の時系列データを学習用データとして入力する学習用データ入力部と、
上記学習用データ入力部により入力された上記一連の時系列データを所定時間単位ごとに分割して分析することにより、複数種類の音響的特徴量をそれぞれ所定時間単位ごとに時系列に算出する特徴量算出部と、
上記特徴量算出部により所定時間単位ごとに時系列に算出された上記複数種類の音響的特徴量について、上記複数種類の音響的特徴量ごとに時間軸に沿って設定した所定時間長の移動窓に含まれる複数種類の音響的特徴量どうしの関係値として、トレンド除去相互相関解析値または相互情報量の少なくとも一方を算出する処理を、上記移動窓を所定遅延量ずつ遅延させて行うことにより、複数の関係値の組み合わせから成る空間遅延行列を算出する行列算出部と、
上記行列算出部により算出された上記空間遅延行列に対して所定の演算を行うことにより、上記空間遅延行列に特有の行列特有データを算出する行列演算部と、
上記行列演算部により算出された上記行列特有データを用いて、被験者に関する行列特有データが入力された際に上記被験者の疾患レベルを出力するための疾患予測モデルを生成する予測モデル生成部とを備え、
上記学習用データ入力部により入力された複数人の時系列データのそれぞれについて、上記特徴量算出部、上記行列算出部および上記行列演算部の処理を行い、複数人の特有データを上記予測モデル生成部に入力して機械学習処理を行うことにより、上記疾患予測モデルを生成することを特徴とする予測モデル生成装置。 - 上記行列演算部は、上記行列算出部により算出された上記空間遅延行列に対して分解演算を行うことにより、上記空間遅延行列に特有の行列分解値を算出する行列分解部を含み、
上記予測モデル生成部は、上記行列分解部により算出された上記行列分解値を用いて、被験者に関する行列分解値が入力された際に上記被験者の疾患レベルを出力するための疾患予測モデルを生成する
ことを特徴とする請求項12に記載の予測モデル生成装置。 - 上記行列演算部は、上記行列算出部により算出された1以上の上記空間遅延行列を用いて、上記関係値のN次元テンソル(N≧1)を生成するテンソル生成部を含み、
上記予測モデル生成部は、上記テンソル生成部により生成された上記N次元テンソルを用いて、被験者に関する3次元テンソルが入力された際に上記被験者の疾患レベルを出力するための疾患予測モデルを生成する
ことを特徴とする請求項12に記載の予測モデル生成装置。 - 時系列に値が変化する一連の時系列データを所定時間単位ごとに分割して分析することにより、複数種類の音響的特徴量をそれぞれ所定時間単位ごとに時系列に算出する特徴量算出手段、
上記特徴量算出手段により所定時間単位ごとに時系列に算出された上記複数種類の音響的特徴量について、上記複数種類の音響的特徴量ごとに時間軸に沿って設定した所定時間長の移動窓に含まれる複数種類の音響的特徴量どうしの関係値として、トレンド除去相互相関解析値または相互情報量の少なくとも一方を算出する処理を、上記移動窓を所定遅延量ずつ遅延させて行うことにより、複数の関係値の組み合わせから成る空間遅延行列を算出する行列算出手段、
上記行列算出手段により算出された上記空間遅延行列に対して所定の演算を行うことにより、上記空間遅延行列に特有の行列特有データを算出する行列演算手段、および
上記行列演算手段により算出された上記行列特有データを、上記行列特有データが入力された際に被験者の疾患レベルを出力するように学習用データを用いた機械学習処理により生成されている学習済みの疾患予測モデルに入力し、上記被験者の疾患レベルを予測する疾患予測手段
としてコンピュータを機能させるための疾患予測用プログラム。 - 上記行列演算手段は、上記行列算出手段により算出された上記空間遅延行列に対して分解演算を行うことにより、上記空間遅延行列に特有の行列分解値を算出する行列分解手段を含み、
上記疾患予測手段は、上記行列分解手段により算出された上記行列分解値を上記学習済みの疾患予測モデルに入力し、被験者の疾患レベルを予測する
ことを特徴とする請求項15に記載の疾患予測用プログラム。 - 上記行列演算手段は、上記行列算出手段により算出された1以上の上記空間遅延行列を用いて、上記関係値のN次元テンソル(N≧1)を生成するテンソル生成手段を含み、
上記疾患予測手段は、上記テンソル生成手段により生成された上記N次元テンソルを上記学習済みの疾患予測モデルに入力し、被験者の疾患レベルを予測する
ことを特徴とする請求項15に記載の疾患予測用プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024071232A JP2024097049A (ja) | 2019-11-25 | 2024-04-25 | 疾患予測装置、予測モデル生成装置および疾患予測用プログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019212031 | 2019-11-25 | ||
JP2019212031 | 2019-11-25 | ||
PCT/JP2020/043563 WO2021106825A1 (ja) | 2019-11-25 | 2020-11-24 | 疾患予測装置、予測モデル生成装置および疾患予測用プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024071232A Division JP2024097049A (ja) | 2019-11-25 | 2024-04-25 | 疾患予測装置、予測モデル生成装置および疾患予測用プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021106825A1 JPWO2021106825A1 (ja) | 2021-06-03 |
JPWO2021106825A5 JPWO2021106825A5 (ja) | 2023-11-01 |
JP7486208B2 true JP7486208B2 (ja) | 2024-05-17 |
Family
ID=76128893
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021561395A Active JP7486208B2 (ja) | 2019-11-25 | 2020-11-24 | 疾患予測装置、予測モデル生成装置および疾患予測用プログラム |
JP2024071232A Pending JP2024097049A (ja) | 2019-11-25 | 2024-04-25 | 疾患予測装置、予測モデル生成装置および疾患予測用プログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024071232A Pending JP2024097049A (ja) | 2019-11-25 | 2024-04-25 | 疾患予測装置、予測モデル生成装置および疾患予測用プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230005624A1 (ja) |
EP (1) | EP4068303A4 (ja) |
JP (2) | JP7486208B2 (ja) |
WO (1) | WO2021106825A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002306492A (ja) | 2001-04-16 | 2002-10-22 | Electronic Navigation Research Institute | カオス論的ヒューマンファクタ評価装置 |
WO2002087434A1 (fr) | 2001-04-25 | 2002-11-07 | Bio-Complex System Research Institute | Procede d'evaluation de l'efficacite d'un etat biologique et d'une action modifiant un etat biologique, appareil et systeme d'evaluation, programme d'evaluation et support d'enregistrement dudit programme |
JP2004240394A (ja) | 2002-12-12 | 2004-08-26 | Sense It Smart Corp | 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9763617B2 (en) * | 2011-08-02 | 2017-09-19 | Massachusetts Institute Of Technology | Phonologically-based biomarkers for major depressive disorder |
CA2928005C (en) * | 2013-10-20 | 2023-09-12 | Massachusetts Institute Of Technology | Using correlation structure of speech dynamics to detect neurological changes |
EP3160334B1 (en) | 2014-08-22 | 2021-12-01 | SRI International | Speech-based assessment of a patient's state-of-mind |
-
2020
- 2020-11-24 US US17/779,598 patent/US20230005624A1/en active Pending
- 2020-11-24 JP JP2021561395A patent/JP7486208B2/ja active Active
- 2020-11-24 EP EP20893804.3A patent/EP4068303A4/en active Pending
- 2020-11-24 WO PCT/JP2020/043563 patent/WO2021106825A1/ja active Search and Examination
-
2024
- 2024-04-25 JP JP2024071232A patent/JP2024097049A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002306492A (ja) | 2001-04-16 | 2002-10-22 | Electronic Navigation Research Institute | カオス論的ヒューマンファクタ評価装置 |
WO2002087434A1 (fr) | 2001-04-25 | 2002-11-07 | Bio-Complex System Research Institute | Procede d'evaluation de l'efficacite d'un etat biologique et d'une action modifiant un etat biologique, appareil et systeme d'evaluation, programme d'evaluation et support d'enregistrement dudit programme |
JP2004240394A (ja) | 2002-12-12 | 2004-08-26 | Sense It Smart Corp | 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20230005624A1 (en) | 2023-01-05 |
WO2021106825A1 (ja) | 2021-06-03 |
JP2024097049A (ja) | 2024-07-17 |
EP4068303A1 (en) | 2022-10-05 |
JPWO2021106825A1 (ja) | 2021-06-03 |
EP4068303A4 (en) | 2023-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Narendra et al. | The detection of Parkinson's disease from speech using voice source information | |
EP3762942B1 (en) | System and method for generating diagnostic health information using deep learning and sound understanding | |
Muzammel et al. | End-to-end multimodal clinical depression recognition using deep neural networks: A comparative analysis | |
Daqrouq et al. | Speaker identification using vowels features through a combined method of formants, wavelets, and neural network classifiers | |
WO2020102223A2 (en) | Intelligent health monitoring | |
Goyal et al. | A hybrid approach for Parkinson’s disease diagnosis with resonance and time-frequency based features from speech signals | |
Korzekwa et al. | Interpretable deep learning model for the detection and reconstruction of dysarthric speech | |
Tsai et al. | Embedding stacked bottleneck vocal features in a LSTM architecture for automatic pain level classification during emergency triage | |
Mendoza et al. | Classification of vocal aging using parameters extracted from the glottal signal | |
Quatieri et al. | Multimodal biomarkers to discriminate cognitive state | |
Almaghrabi et al. | Bio-acoustic features of depression: A review | |
Aversano et al. | A machine learning approach for early detection of parkinson’s disease using acoustic traces | |
Majda-Zdancewicz et al. | Deep learning vs feature engineering in the assessment of voice signals for diagnosis in Parkinson’s disease | |
Nishikawa et al. | Machine learning model for discrimination of mild dementia patients using acoustic features | |
Singh et al. | Forensic anthropometry from voice: an articulatory-phonetic approach | |
Pérez-Toro et al. | Transferring quantified emotion knowledge for the detection of depression in Alzheimer’s disease using forestnets | |
Benayad et al. | Features selection by genetic algorithm optimization with k-nearest neighbour and learning ensemble to predict Parkinson disease | |
JP7486208B2 (ja) | 疾患予測装置、予測モデル生成装置および疾患予測用プログラム | |
Kodali et al. | Automatic classification of the severity level of Parkinson’s disease: A comparison of speaking tasks, features, and classifiers | |
Raju et al. | AUTOMATIC SPEECH RECOGNITION SYSTEM USING MFCC-BASED LPC APPROACH WITH BACK PROPAGATED ARTIFICIAL NEURAL NETWORKS. | |
Singhal et al. | Voice signal-based disease diagnosis using iot and learning algorithms for healthcare | |
Akshay et al. | Identification of Parkinson disease patients classification using feed forward technique based on speech signals | |
Almaloglou et al. | Design and validation of a new diagnostic tool for the differentiation of pathological voices in parkinsonian patients | |
Jenei et al. | Severity estimation of depression using convolutional neural network | |
Miliaresi et al. | A deep multimodal voice pathology classifier with electroglottographic signal processing capabilities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220518 |
|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A5211 Effective date: 20220518 |
|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231024 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231024 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7486208 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |