JP6854554B1 - 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム Download PDF

Info

Publication number
JP6854554B1
JP6854554B1 JP2020541455A JP2020541455A JP6854554B1 JP 6854554 B1 JP6854554 B1 JP 6854554B1 JP 2020541455 A JP2020541455 A JP 2020541455A JP 2020541455 A JP2020541455 A JP 2020541455A JP 6854554 B1 JP6854554 B1 JP 6854554B1
Authority
JP
Japan
Prior art keywords
score
symptom
user
degree
psychiatric disorder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020541455A
Other languages
English (en)
Other versions
JPWO2021250854A1 (ja
Inventor
康宏 大宮
康宏 大宮
将 鈴木
将 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PST CORPORATION,INC.
Original Assignee
PST CORPORATION,INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PST CORPORATION,INC. filed Critical PST CORPORATION,INC.
Priority to JP2021037791A priority Critical patent/JP7430398B2/ja
Application granted granted Critical
Publication of JP6854554B1 publication Critical patent/JP6854554B1/ja
Publication of JPWO2021250854A1 publication Critical patent/JPWO2021250854A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Neurology (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Neurosurgery (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Social Psychology (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Educational Technology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

情報処理装置(14)は、音声データから音響パラメータである特徴量を抽出する。情報処理装置(14)は、音声データのスペクトログラム画像を生成する。情報処理装置(14)は、特徴量と算出モデルとに基づいて、ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第1のスコアを算出する。情報処理装置(14)は、スペクトログラム画像を学習済みモデルへ入力して、ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第2のスコアを算出する。情報処理装置(14)は、第1のスコアと第2のスコアとを合成し、ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す合成スコアを算出する。情報処理装置(14)は、合成スコアに応じて、ユーザが何れかの疾患又は症状を有しているか否かを推定する。

Description

開示の技術は、情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラムに関する。
国際公開第2020/013296号公報には、精神系疾患又は神経系疾患を推定する装置が開示されている。この装置は、ユーザの音声データから各種の音響パラメータを算出し、それらの音響パラメータを用いて、ユーザが精神系疾患又は神経系疾患であるか否かを推定する。
上記国際公開第2020/013296号公報に開示されている装置は、音声データから算出される音響パラメータを用いて疾患を推定するものの、その精度に関しては改善の余地がある。
開示の技術は、上記の事情を鑑みてなされたものであり、ユーザが発した音声の時系列データから抽出されるパラメータを用いて精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を推定する場合と比べ、ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有しているか否かを精度良く推定することができる、情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラムを提供する。
上記の目的を達成するために本開示の第1態様は、ユーザが発した音声の時系列データである音声データを取得する取得部と、前記取得部により取得した前記音声データから、所定の音響パラメータである特徴量を抽出する抽出部と、前記取得部により取得した前記音声データを周波数解析することにより、前記音声データのスペクトログラムを表すスペクトログラム画像を生成する生成部と、前記抽出部により抽出された前記特徴量と、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め設定された算出モデルとに基づいて、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第1のスコアを算出する第1スコア算出部と、前記生成部により生成された前記スペクトログラム画像を、前記スペクトログラム画像から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第2のスコアを算出する第2スコア算出部と、前記第1のスコアと前記第2のスコアとを合成することにより、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す合成スコアを算出する合成スコア算出部と、前記合成スコア算出部により算出された前記合成スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定する推定部と、を含む情報処理装置である。
本開示の第2態様は、ユーザが発した音声の時系列データである音声データを取得する取得部と、前記取得部により取得した前記音声データを周波数解析することにより、前記音声データのスペクトログラムを表すスペクトログラム画像を生成する生成部と、前記取得部により取得した前記音声データから所定の音響パラメータである特徴量を抽出し、前記生成部により生成された前記スペクトログラム画像から学習済みモデルを用いることにより特徴量を抽出する抽出部と、前記抽出部により抽出された前記特徴量と、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め設定された算出モデルとに基づいて、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表すスコアを算出するスコア算出部と、前記スコア算出部により算出された前記スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定する推定部と、を含み、前記学習済みモデルは、学習用のスペクトログラム画像と該学習用のスペクトログラム画像に対応する前記音声データを発したユーザが有している疾患又は症状を表す正解ラベルとが対応付けられた教師データにより予め学習された学習済みモデルである、情報処理装置である。
本開示の第3態様は、ユーザが発した音声の時系列データである音声データを取得する取得部と、前記取得部により取得した前記音声データから、所定の音響パラメータである特徴量を抽出する抽出部と、前記取得部により取得した前記音声データに対応する画像を生成する生成部と、前記抽出部により抽出された前記特徴量を、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された第1の学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第1のスコアを算出する第1スコア算出部と、前記生成部により生成された前記画像を、前記画像から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された第2の学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第2のスコアを算出する第2スコア算出部と、前記第1のスコアと前記第2のスコアとを合成することにより、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す合成スコアを算出する合成スコア算出部と、前記合成スコア算出部により算出された前記合成スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定する推定部と、を含む情報処理装置である。
本開示の第4態様は、ユーザが発した音声の時系列データである音声データを取得し、前記音声データから、所定の音響パラメータである特徴量を抽出し、前記音声データを周波数解析することにより、前記音声データのスペクトログラムを表すスペクトログラム画像を生成し、前記特徴量と、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め設定された算出モデルとに基づいて、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第1のスコアを算出し、前記スペクトログラム画像を、前記スペクトログラム画像から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第2のスコアを算出し、前記第1のスコアと前記第2のスコアとを合成することにより、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す合成スコアを算出し、前記合成スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定する、処理をコンピュータが実行する情報処理方法である。
本開示の第5態様は、ユーザが発した音声の時系列データである音声データを取得し、前記音声データから、所定の音響パラメータである特徴量を抽出し、前記音声データを周波数解析することにより、前記音声データのスペクトログラムを表すスペクトログラム画像を生成し、前記特徴量と、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め設定された算出モデルとに基づいて、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第1のスコアを算出し、前記スペクトログラム画像を、前記スペクトログラム画像から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第2のスコアを算出し、前記第1のスコアと前記第2のスコアとを合成することにより、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す合成スコアを算出し、前記合成スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定する、処理をコンピュータに実行させるための情報処理プログラムである。
開示の技術によれば、ユーザが発した音声の時系列データから抽出されるパラメータを用いて精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を推定する場合と比べ、ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有しているか否かを精度良く推定することができる、という効果が得られる。
第1実施形態の情報処理システムの概略構成の一例を示す図である。 第1実施形態の概要を説明するための図である。 第1実施形態の情報処理システムの利用形態の一例を模式的に示す図である。 音声データとスペクトログラム画像とを説明するための図である。 学習済みモデルを説明するための図である。 教師データを説明するための図である。 情報処理装置を構成するコンピュータの一例を示す図である。 第1実施形態の情報処理装置が実行する処理の一例を示す図である。 第2実施形態の概要を説明するための図である。 教師データを説明するための図である。 第3実施形態の情報処理システムの概略構成の一例を示す図である。 第3実施形態の情報処理システムの利用形態の一例を模式的に示す図である。 第3実施形態の情報処理システムの利用形態の一例を模式的に示す図である。 第3実施形態のユーザ端末及び情報処理装置が実行する処理の一例を示す図である。 第4実施形態の情報処理システムの概略構成の一例を示す図である。 学習済みモデルから得られる特徴量を説明するための図である。 実施例1の結果を示す図である。 実施例1の結果を示す図である。 実施例2の結果を示す図である。 実施例2の結果を示す図である。 実施例2の結果を示す図である。 実施例2の結果を示す図である。
以下、図面を参照して開示の技術の実施形態を詳細に説明する。
<第1実施形態の情報処理システム>
図1に、第1実施形態に係る情報処理システム10を示す。図1に示されるように、第1実施形態の情報処理システム10は、マイク12と、情報処理装置14と、表示装置16とを備えている。
情報処理システム10は、マイク12により集音されたユーザの音声に基づいて、ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状(以下、単に「精神系疾患、神経系疾患又はそれらの症状」とも称する。)を有しているか否かを推定する。
図2に、第1実施形態の情報処理システム10の概要を説明するための図を示す。第1実施形態の情報処理システム10の情報処理装置14は、ユーザが発した音声の時系列データである音声データから音響パラメータを抽出する。また、情報処理装置14は、ユーザの音声データを周波数解析することにより、スペクトログラム画像を生成する。
次に、情報処理装置14は、図2に示されるように、音響パラメータを、音響パラメータから精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す第1のスコアを算出するための算出モデルへ入力する。そして、情報処理装置14は、図2に示されるように、第1のスコアを得る。
次に、情報処理装置14は、スペクトログラム画像を、スペクトログラム画像から精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す第2のスコアを算出するための学習済みモデルへ入力する。そして、情報処理装置14は、図2に示されるように、第2のスコアを得る。学習済みモデルは、例えば、機械学習により学習されたニューラルネットワーク等により実現される。
次に、情報処理装置14は、第1のスコアと第2のスコアとを合成することにより、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す合成スコアを算出する。そして、情報処理装置14は、合成スコアに応じて、ユーザが何れかの疾患又は症状を有しているか否かを推定する。
このように、第1実施形態の情報処理システム10は、時系列データである音声データから抽出される音響パラメータのみならず、音声データから得られる画像も用いてユーザが何れかの疾患又は症状を有しているか否かを推定する。これにより、音響パラメータのみを用いた場合に比べて、ユーザが何れかの疾患又は症状を有しているか否かを精度良く推定することができる。
第1実施形態の情報処理システム10は、例えば、図3に示されるような状況下においての利用が想定される。
図3の例では、医師等の医療従事者Hが、情報処理システム10の一例であるタブレット型端末を保持している。医療従事者Hは、タブレット型端末が備えるマイク(図示省略)を用いて、被験者であるユーザUの音声データ「XXXX」を集音する。そして、タブレット端末は、ユーザUの音声データ「XXXX」に基づいて、ユーザUが何れかの疾患又は症状を有しているか否かを推定し、推定結果を表示部(図示省略)へ出力する。医療従事者Hは、タブレット端末の表示部(図示省略)に表示された推定結果を参考にして、ユーザUが何れかの疾患又は症状を有しているか否かを診断する。
以下、具体的に説明する。
マイク12は、疾患又は症状推定対象のユーザが発した音声の時系列データである音声データを集音する。
情報処理装置14は、マイク12により集音された音声データに基づいて、ユーザが精神系疾患、神経系疾患又はそれらの症状を有しているか否かを推定する。
図1に示されるように、情報処理装置14は、機能的には、取得部20と、抽出部22と、生成部24と、算出モデル記憶部26と、学習済みモデル記憶部28と、第1スコア算出部30と、第2スコア算出部32と、合成スコア算出部34と、推定部36とを備えている。情報処理装置14は、後述するようなコンピュータにより実現される。
取得部20は、マイク12により集音されたユーザの音声データを取得する。
抽出部22は、取得部20により取得された音声データから、所定の音響パラメータである特徴量を抽出する。例えば、抽出部22は、国際公開第2020/013296号公報に開示されている以下の音響パラメータを特徴量として抽出する。
Figure 0006854554
生成部24は、取得部20により取得された音声データを周波数解析することにより、音声データのスペクトログラムを表すスペクトログラム画像を生成する。
図4に、スペクトログラム画像を説明するための図を示す。図4に示されるように、音声データDは時系列データである。生成部24は、音声データDを周波数解析することにより、図4に示されるようなスペクトログラム画像Imを生成する。なお、スペクトログラム画像Imの横軸は時間軸であり、スペクトログラム画像Imの縦軸は周波数軸である。また、スペクトログラム画像Imの画素値は、各周波数成分の強度に相当する。なお、第1実施形態では、スペクトログラム画像はグレースケール画像である。
算出モデル記憶部26には、音響パラメータである特徴量から精神系疾患、神経系疾患又はそれらの症状の度合いを表すスコアを算出するための算出モデルが格納されている。例えば、算出モデルは、以下の算出式によって表される。
F(a)=xa1×fa1+xa2×fa2+,・・・,xan×fan
(1)
上記式(1)は、ユーザがある精神系疾患又は症状Aを有している度合いを表す第1のスコアF(a)を算出するための算出式である。fa1,・・・,fanは、上記の各音響パラメータの項目1)から11)の中から選択された何れか1つ以上の特徴量である。また、xa1,・・・,xanは疾患又は症状に固有の係数であり、予め設定されている。
また、ユーザがある神経系疾患又は症状Bを有している度合いを表す第1のスコアF(b)は、上記式(1)と同様の形式で表され、例えば、以下の式(2)により表される。fb1,・・・,fbmは、上記の各音響パラメータの項目1)から11)の中から選択された何れか1つ以上の特徴量である。xb1,・・・,xbmは疾患又は症状に固有の係数であり、予め設定されている。
F(b)=xb1×fb1+xb2×fb2+,・・・,xbm×fbm
(2)
また、ユーザが精神系疾患、神経系疾患又はそれらの症状の何れも有していない度合いを表す第1のスコアF(h)は、記式(1)と同様の形式で表され、例えば、以下の式(3)により表される。fh1,・・・,fhiは、上記の各音響パラメータの項目1)から11)の中から選択された何れか1つ以上の特徴量である。xh1,・・・,xhiは疾患又は症状に固有の係数であり、予め設定されている。
F(h)=xh1×fh1+xh2×fh2+,・・・,xhi×fhi
(3)
なお、2つ以上の疾患又は症状に共通項が存在しており、疾患又は症状A及び疾患又は症状Bの少なくとも一方を有している度合いを表す第1のスコアF(ab)を、以下の式(4)により算出してもよい。fab1,・・・,fabjは、上記の各音響パラメータの項目1)から11)の中から選択された何れか1つ以上の特徴量である。xab1,・・・,xhabjは固有の係数であり、予め設定されている。
F(ab)=xab1×fab1+xab2×fab2+,・・・,xabj×fabj
(4)
また、疾患又は症状A及び疾患又は症状Bの少なくとも一方を有している度合いを表す第1のスコアF(ab)を利用して、以下の式(5)(6)により、ユーザが疾患又は症状Aを有している度合いを表す第1のスコアF(a)、及びユーザが疾患又は症状Bを有している度合いを表す第1のスコアF(b)、をそれぞれ算出してもよい。
F(a)=F(ab)+xa1×fa1+xa2×fa2+,・・・,xan×fan
(5)
F(b)=F(ab)+xb1×fb1+xb2×fb2+,・・・,xbm×fbm
(6)
学習済みモデル記憶部28には、スペクトログラム画像から精神系疾患、神経系疾患又はそれらの症状の度合いを表すスコアを算出するための予め機械学習された学習済みモデルが格納されている。
図5に、学習済みモデルを説明するための図を示す。図5に示されるように、スペクトログラム画像の各箇所の画素値が学習済みモデルへ入力されると、学習済みモデルから精神系疾患、神経系疾患又はそれらの症状の度合いを表す第2のスコアが出力される。
図5に示される例では、ユーザが疾患又は症状Aを有している度合いを表す第2のスコアG(a):0.6と、ユーザが疾患又は症状Bを有している度合いを表す第2のスコアG(b):0.1と、ユーザが何れの疾患又は症状も有していない度合いを表す第2のスコアG(h):0.1とが、学習済みモデルから出力されている。
学習済みモデルは、予め設定された教師データにより予め機械学習されている。学習済みモデルは、機械学習により学習可能なモデルであれば、どのようなモデルであってもよい。図6は、教師データを説明するための図である。図6に示されるように、例えば、教師データは、学習用のスペクトログラム画像と当該学習用のスペクトログラム画像に対応する音声データを発したユーザが有している疾患又は症状を表す正解ラベルとが対応付けられたデータである。
第1スコア算出部30は、抽出部22により抽出された特徴量と、算出モデル記憶部26に格納された算出式とに基づいて、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す第1のスコアを算出する。
具体的には、第1スコア算出部30は、算出モデル記憶部26に格納された算出式を読み出し、その算出式の特徴量部分に抽出部22により抽出された特徴量の値を入力し、第1のスコアを算出する。
例えば、第1スコア算出部30は、特徴量の値を算出式へ入力することにより、ユーザがある精神系疾患又は症状Aを有している度合いを表す第1のスコアF(a)、ユーザがある神経系疾患又は症状Bを有している度合いを表す第1のスコアF(b)、及びユーザが何れの疾患又は症状も有していない度合いを表す第1のスコアF(h)を算出する。なお、第1のスコアF(a)は、ユーザが精神系疾患又はその症状を有している度合いを表す第1の精神系疾患スコアの一例である。また、第1のスコアF(b)は、ユーザが神経系疾患又はその症状を有している度合いを表す第1の神経系疾患スコアの一例である。また、第1のスコアF(h)は、ユーザが精神系疾患、神経系疾患又はそれらの症状の何れも有していない度合いを表す第1の健常系スコアの一例である。
第2スコア算出部32は、生成部24により生成されたスペクトログラム画像を、学習済みモデル記憶部28に格納されている学習済みモデルへ入力して、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す第2のスコアを算出する。
例えば、第2スコア算出部32は、スペクトログラム画像の各画素値を学習済みモデルへ入力することにより、ユーザがある精神系疾患又は症状Aを有している度合いを表す第2のスコアG(a)、ユーザがある神経系疾患又は症状Bを有している度合いを表す第2のスコアG(b)、及びユーザが何れの疾患又は症状も有していない度合いを表す第2のスコアG(h)を算出する。なお、第2のスコアG(a)は、ユーザが精神系疾患又はその症状を有している度合いを表す第2の精神系疾患スコアの一例である。また、第2のスコアG(b)は、ユーザが神経系疾患又はその症状を有している度合いを表す第2の神経系疾患スコアの一例である。第2のスコアG(h)は、ユーザが精神系疾患、神経系疾患又はそれらの症状の何れも有していない度合いを表す第2の健常系スコアの一例である。
なお、第2スコア算出部32は、音声データの長さに応じてスペクトログラム画像のサイズを調整する。
例えば、疾患又は症状か否かを推定するための予め設定された複数のフレーズをユーザに発話させる場合には、その音声データの時間軸方向の長さはフレーズ毎に異なるものとなる。例えば、フレーズ「食欲があります」とフレーズ「本日は晴天なり」とでは、その長さが異なり、それぞれのフレーズの音声データから生成されたスペクトログラム画像も異なるサイズとなる。
そこで、第2スコア算出部32は、スペクトログラム画像を学習済みモデルへ入力する際に、スペクトログラム画像のサイズを調整する。
具体的には、学習済みモデルの入力層のサイズよりも入力対象のスペクトログラム画像のサイズが大きい場合には、第2スコア算出部32は、当該スペクトログラム画像内にランダムな切り取り位置を設定し、その切り取り位置に応じて画像を切り出す。そして、第2スコア算出部32は、切り出したスペクトログラム画像を学習済みモデルへ入力して、第2のスコアを算出する。
一方、学習済みモデルの入力層のサイズよりも入力対象のスペクトログラム画像のサイズが小さい場合には、第2スコア算出部32は、当該スペクトログラム画像の両サイドにランダムな幅で黒枠を挿入する。そして、第2スコア算出部32は、黒枠が挿入されたスペクトログラム画像を学習済みモデルへ入力して、第2のスコアを算出する。
なお、モデルを学習させる際にも、このような手法によりスペクトログラム画像のサイズを調整する。なお、学習の際にスペクトログラム画像の両サイドにランダムな幅で黒枠を挿入してしまうと、学習が上手くいかない場合もあるため、全ての学習用のスペクトログラム画像の平均画像を生成し、その平均画像を対象のスペクトログラム画像の両サイドに挿入する。なお、この場合、画像の両サイドへの平均画像の挿入幅及び入力サイズよりも大きい画像の切り出し位置は、学習更新によるモデルの中間層の重みパラメータが微小に変更される毎に、ランダムにその幅及び位置を変更する。これにより、学習済みモデルの性能を向上させることが可能となる。
合成スコア算出部34は、第1スコア算出部30により算出された第1のスコアと第2スコア算出部32により算出された第2のスコアとを合成することにより、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す合成スコアを算出する。例えば、合成スコア算出部34は、第1のスコアと第2のスコアとの和を、合成スコアとして算出する。
例えば、合成スコア算出部34は、第1のスコアF(a)と第2のスコアG(a)とを足し合わせることにより、ユーザがある精神系疾患又は症状Aを有している度合いを表す合成スコアS(a)を算出する。また、合成スコア算出部34は、第1のスコアF(b)と第2のスコアG(b)とを足し合わせることにより、ユーザがある神経系疾患又は症状Bを有している度合いを表す合成スコアS(b)を算出する。また、合成スコア算出部34は、第1のスコアF(h)と第2のスコアG(h)とを足し合わせることにより、ユーザが何れの疾患又は症状も有していない度合いを表す合成スコアS(h)を算出する。
推定部36は、合成スコア算出部34により算出された合成スコアに応じて、ユーザが何れかの疾患又は症状を有しているか否かを推定する。例えば、推定部36は、ユーザは合成スコアが最も高い疾患又は症状を有していると推定する。または、例えば、推定部36は、ユーザは合成スコアが所定の閾値以上である疾患又は症状を有していると推定する。例えば、推定部36は、合成スコアが所定の閾値以上である疾患又は症状が精神系疾患又は症状Aと神経系疾患又は症状Bであった場合には、ユーザは精神系疾患又は症状A及び神経系疾患又は症状Bの両方を有していると推定する。また、例えば、推定部36は、合成スコアS(h)が最も高い場合には、ユーザは疾患又は症状を有していないと推定する。
推定部36は、ユーザの疾患又は症状の有無に関する推定結果を出力する。なお、推定部36は、各疾患又は症状の合成スコアそのものを推定結果として出力してもよい。
表示装置16は、推定部36から出力された推定結果を表示する。
情報処理装置14を操作する医療従事者又はユーザは、表示装置16から出力された推定結果を確認し、ユーザがどのような疾患又は症状を有している可能性があるのかを確認する。
情報処理装置14は、例えば、図7に示すコンピュータ50で実現することができる。コンピュータ50はCPU51、一時記憶領域としてのメモリ52、及び不揮発性の記憶部53を備える。また、コンピュータ50は、外部装置及び出力装置等が接続される入出力interface(I/F)54、及び記録媒体に対するデータの読み込み及び書き込みを制御するread/write(R/W)部55を備える。また、コンピュータ50は、インターネット等のネットワークに接続されるネットワークI/F56を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、及びネットワークI/F56は、バス57を介して互いに接続される。
記憶部53は、Hard Disk Drive(HDD)、Solid State Drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を機能させるためのプログラムが記憶されている。CPU51は、プログラムを記憶部53から読み出してメモリ52に展開し、プログラムが有するプロセスを順次実行する。
[第1実施形態の情報処理システムの動作]
次に、第1実施形態の情報処理システム10の具体的な動作について説明する。情報処理システム10の情報処理装置14は、図8に示される各処理を実行する。
まず、ステップS100において、マイク12により集音されたユーザの音声データを取得する。
次に、ステップS102において、抽出部22は、上記ステップS100で取得された音声データから、国際公開第2020/013296号公報に開示されているような所定の音響パラメータを特徴量として抽出する。
ステップS104において、生成部24は、上記ステップS100で取得された音声データを周波数解析することにより、音声データのスペクトログラムを表すスペクトログラム画像を生成する。
ステップS106において、第1スコア算出部30は、上記ステップS102抽出された特徴量と、算出モデル記憶部26に格納された算出式とに基づいて、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す第1のスコアを算出する。
ステップS108において、第2スコア算出部32は、上記ステップS104で生成されたスペクトログラム画像を、学習済みモデル記憶部28に格納されている学習済みモデルへ入力して、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す第2のスコアを算出する。
ステップS110において、合成スコア算出部34は、上記ステップS106で算出された第1のスコアと、上記ステップS108で算出された第2のスコアとを合成することにより、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す合成スコアを算出する。
ステップS112において、推定部36は、上記ステップS110で算出された合成スコアに応じて、ユーザが何れかの疾患又は症状を有しているか否かを推定する。
ステップS114において、推定部36は、上記ステップS112で得られた推定結果を出力する。
表示装置16は、推定部36から出力された推定結果を表示する。情報処理装置14を操作する医療従事者又はユーザは、表示装置16から出力された推定結果を確認し、ユーザがどのような疾患又は症状を有している可能性があるのかを確認する。
以上説明したように、第1実施形態の情報処理システム10は、ユーザが発した音声の時系列データである音声データを取得し、当該音声データから、所定の音響パラメータである特徴量を抽出する。そして、情報処理システム10は、取得した音声データを周波数解析することにより、音声データのスペクトログラムを表すスペクトログラム画像を生成する。情報処理システム10は、特徴量と、当該特徴量から精神系疾患、神経系疾患又はそれらの症状の度合いを表すスコアを算出するための予め設定された算出モデルとに基づいて、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す第1のスコアを算出する。情報処理システム10は、スペクトログラム画像を、当該スペクトログラム画像から精神系疾患、神経系疾患又はそれらの症状の度合いを表すスコアを算出するための予め学習された学習済みモデルへ入力して、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す第2のスコアを算出する。情報処理システム10は、第1のスコアと第2のスコアとを合成することにより、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す合成スコアを算出する。そして、情報処理システム10は、合成スコアに応じて、ユーザが何れかの疾患又は症状を有しているか否かを推定する。これにより、ユーザが発した音声の時系列データから抽出されるパラメータを用いて精神系疾患、神経系疾患又はそれらの症状を推定する場合と比べ、ユーザが精神系疾患、神経系疾患又はそれらの症状を有しているか否かを精度良く推定することができる。より詳細には、従来の音響パラメータに加え音声データから得られるスペクトログラム画像を用いて疾患又は症状を推定することにより、ユーザの疾患又は症状を精度良く推定することができる。
また、スペクトログラム画像からユーザの疾患又は症状のスコアを算出する際には、学習済みモデルを用いることにより、スペクトログラム画像から第2のスコアを簡易に算出することができる。また、学習済みモデルへスペクトログラム画像を入力する際には、スペクトログラム画像のサイズを調整することにより、異なる長さのフレーズにも対応することができる。
<第2実施形態の情報処理システム>
次に、第2実施形態について説明する。なお、第2実施形態情報処理システムの構成は、第1実施形態と同様の構成となるため、同一符号を付して説明を省略する。
第2実施形態の情報処理システムは、音響パラメータである特徴量から第1のスコアを算出する際にも、ニューラルネットワーク等の学習済みモデルを用いる点が第1実施形態と異なる。
図9に、第2実施形態の情報処理システム10の概要を説明するための図を示す。第2実施形態の情報処理システム10は、第1実施形態の算出モデルとして、ニューラルネットワーク等の第1の学習済みモデルを用いる。
具体的には、第2実施形態の情報処理システム10の情報処理装置14は、図9に示されるように、音響パラメータである特徴量を、当該特徴量から精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す第1のスコアを算出するための算出モデルである第1の学習済みモデルへ入力する。そして、第2実施形態の情報処理システム10の情報処理装置14は、第1の学習済みモデルから出力されたスコアを第1のスコアとする。
なお、第1実施形態の学習済みモデルは、図9に示される第2の学習済みモデルに相当する。このため、スペクトログラム画像が第2の学習済みモデルへ入力されると、その第2の学習済みモデルから第2のスコアが出力される。
以下、具体的に説明する。
第2実施形態の第1の学習済みモデルは、既知のニューラルネットワーク等により実現される。第1の学習済みモデルは、予め設定された教師データにより予め機械学習されている。図10は、第1の学習済みモデルを学習させる際に用いる教師データを説明するための図である。図10に示されるように、例えば、教師データは、学習用の特徴量群と、その特徴量群が得られた音声データを発したユーザが有している疾患又は症状を表す正解ラベルとが対応付けられたデータである。
第2実施形態の情報処理システムの他の構成及び作用については、第1実施形態と同様であるため、説明を省略する。
以上説明したように、第2実施形態の情報処理システムは、音響パラメータである特徴量から精神系疾患、神経系疾患又はそれらの症状の度合いを表すスコアを算出するための予め学習された第1の学習済みモデルを用いる。具体的には、第2実施形態の情報処理システムは、ユーザの音声データから抽出された特徴量を、第1の学習済みモデルへ入力して、第1のスコアを算出する。そして、第2実施形態の情報処理システムは、スペクトログラム画像を、第2の学習済みモデルへ入力して、第2のスコアを算出する。第2実施形態の情報処理システムは、第1のスコアと第2のスコアとを合成することにより、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す合成スコアを算出する。そして、第2実施形態の情報処理システムは、合成スコアに応じて、ユーザが何れかの疾患又は症状を有しているか否かを推定する。これにより、ユーザが発した音声の時系列データから抽出されるパラメータを用いて精神系疾患、神経系疾患又はそれらの症状を推定する場合と比べ、ユーザが精神系疾患、神経系疾患又はそれらの症状を有しているか否かを精度良く推定することができる。
<第3実施形態の情報処理システム>
次に、第3実施形態について説明する。なお、第3実施形態の情報処理システムの構成のうちの、第1実施形態又は第2実施形態と同様の構成となる部分については、同一符号を付して説明を省略する。
図11に、第3実施形態に係る情報処理システム310を示す。図11に示されるように、第3実施形態の情報処理システム310は、ユーザ端末18と、情報処理装置314とを備えている。
情報処理システム310の情報処理装置314は、ユーザ端末18に備えられたマイク12により集音されたユーザの音声に基づいて、ユーザが精神系疾患、神経系疾患又はそれらの症状を有しているか否かを推定する。
第3実施形態の情報処理システム310は、例えば、図12及び図13に示されるような状況下においての利用が想定される。
図12の例では、医師等の医療従事者Hが情報処理装置314を操作しており、被験者であるユーザUはユーザ端末18を操作している。ユーザUは、自らが操作するユーザ端末18のマイク12により自らの音声データ「XXXX」を集音する。そして、ユーザ端末18は、インターネット等のネットワーク19を介して音声データを情報処理装置314へ送信する。
情報処理装置314は、ユーザ端末18から送信されたユーザUの音声データ「XXX」を受信する。そして、情報処理装置314は、受信した音声データに基づいて、ユーザUが何れかの疾患又は症状を有しているか否かを推定し、推定結果を情報処理装置314の表示部315へ出力する。医療従事者Hは、情報処理装置314の表示部315に表示された推定結果を参考にして、ユーザUが何れかの疾患又は症状を有しているか否かを診断する。
一方、図13の例では、被験者であるユーザUは、自らが操作するユーザ端末18のマイク12により自らの音声データ「XXXX」を集音する。そして、ユーザ端末18は、インターネット等のネットワーク19を介して音声データを情報処理装置314へ送信する。情報処理装置314は、ユーザ端末18から送信されたユーザUの音声データ「XXX」を受信する。そして、情報処理装置314は、受信した音声データに基づいて、ユーザUが何れかの疾患又は症状を有しているか否かを推定し、推定結果をユーザ端末18へ送信する。ユーザ端末18は、情報処理装置14から送信された推定結果を受信し、その推定結果を表示部(図示省略)へ表示する。ユーザは、推定結果を確認し、自らがどのような疾患又は症状を有している可能性が高いのかを確認する。
[第3実施形態の情報処理システムの動作]
第3実施形態の情報処理システム310の具体的な動作について説明する。情報処理システム310のユーザ端末18及び情報処理装置314は、図14に示される各処理を実行する。
ステップS200において、ユーザ端末18の端末通信部313は、マイク12により集音されたユーザの音声データを取得する。
ステップS202において、ユーザ端末18の端末通信部313は、上記ステップS200で取得した音声データを、ネットワーク19を介して、情報処理装置314へ送信する。
ステップS203において、情報処理装置314の通信部38は、ユーザ端末18から送信された音声データを受信する。
図14のステップS100〜ステップS114の各処理は、第1実施形態の情報処理システム10と同様に実行される。
なお、ステップS114で出力された推定結果は、ユーザ端末18へ送信されてもよいし、情報処理装置14が備える表示装置(図示省略)に表示されてもよい。
第3実施形態の情報処理システムの他の構成及び作用については、第1又は第2実施形態と同様であるため、説明を省略する。
以上説明したように、第3実施形態の情報処理システムは、クラウド上に設置された情報処理装置14を用いてユーザが精神系疾患、神経系疾患又はそれらの症状を有しているか否かを推定することができる。
<第4実施形態の情報処理システム>
次に、第4実施形態について説明する。なお、第4実施形態の情報処理システムの構成のうち第1〜第3実施形態と同様の構成となる部分については、同一符号を付して説明を省略する。
図15に、第4実施形態に係る情報処理システム410を示す。図15に示されるように、第3実施形態の情報処理システム410の情報処理装置414は、機能的には、取得部20と、生成部24と、抽出部42と、スコア算出部44と、推定部46とを備えている。
第4実施形態の抽出部42は、第1〜第3実施形態と同様に、音声データから所定の音響パラメータを特徴量として抽出する。更に、第4実施形態の抽出部42は、生成部24により生成されたスペクトログラム画像からも特徴量を抽出する。
具体的には、抽出部42は、学習済みモデル記憶部28に格納されている学習済みモデルを用いて、生成部24により生成されたスペクトログラム画像から特徴量を抽出する。
図16に、学習済みモデルを用いての特徴量の抽出を説明するための図を示す。図16に示されるように、学習済みモデルは、入力層、中間層、及び出力層を含んで構成されている。出力前層の値(中間層から出力される値)は、特徴量としても利用することが可能である。
そこで、第4実施形態の抽出部42は、スペクトログラム画像の各画素値を学習済みモデルへ入力し、学習済みモデルの中間層から出力される値を特徴量として抽出する。
スコア算出部44は、抽出部42により抽出された特徴量と、算出モデル記憶部26に格納されている算出モデルとに基づいて、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表すスコアを算出する。
第4実施形態の算出モデルの一例である算出式としては、例えば、以下の式(7)等を用いることができる。なお、以下の式により算出されるスコアF(a)は、ユーザが疾患又は症状Aを有している度合いを表す。なお、xan,yamは固定されている係数であり、予め設定されている。これらの係数は、xan,yamは、例えば、機械学習又は回帰分析等により求められる。fは音声データから抽出された音響パラメータを表す第1の特徴量であり、gはスペクトログラム画像から学習済みモデルを用いて抽出された第2の特徴量である。
F(a)=xa1×f(1)+,・・・,xan×f(n)+ya1×g(1)+,・・・,yam×g(m)
(7)
推定部46は、スコア算出部44により算出されたスコアに応じて、ユーザが何れかの疾患又は症状を有しているか否かを推定する。
第4実施形態の情報処理システムの他の構成及び作用については、第1〜第2実施形態と同様であるため、説明を省略する。
第4実施形態の情報処理システム410は、音声データから所定の音響パラメータである特徴量を抽出し、スペクトログラム画像から学習済みモデルを用いることにより特徴量を抽出する。そして、情報処理システム410は、特徴量と、当該特徴量から精神系疾患、神経系疾患又はそれらの症状の度合いを表すスコアを算出するための予め設定された算出モデルとに基づいて、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表すスコアを算出する。そして、情報処理システム410は、スコアに応じて、ユーザが何れかの疾患又は症状を有しているか否かを推定する。なお、学習済みモデルは、学習用のスペクトログラム画像と該学習用のスペクトログラム画像に対応する音声データを発したユーザが有している疾患又は症状を表す正解ラベルとが対応付けられた教師データにより予め学習された学習済みモデルである。これにより、ユーザが発した音声の時系列データから抽出されるパラメータを用いて精神系疾患、神経系疾患又はそれらの症状を推定する場合と比べ、ユーザが精神系疾患、神経系疾患又はそれらの症状を有しているか否かを精度良く推定することができる。
また、スペクトログラム画像から特徴量を抽出する際に用いる学習済みモデルは、学習用のスペクトログラム画像と疾患又は症状に関する正解ラベルとが対応付けられた教師データに基づき学習されているため、ユーザの疾患又は症状を精度良く推定するための特徴量を抽出することができる。
次に、実施例1を説明する。実施例1では、被験者が24個のフレーズを発話し、その発話により得られる音声データを収集する。そして、それらの音声データに基づいて各手法を用いて被験者の疾患又は症状の推定を行う。
なお、第1のスコアを算出する際の学習済みモデルとしては、その一例として、以下の参考文献に開示されている、既知のニューラルネットワークであるResNetを用いる。
参考文献:K. He, X. Zhang, S. Ren, and J. Sun. "Deep residual learning for image
recognition.", In Proc. of CVPR, 2016.
また、第2のスコアを算出する際の算出モデルとしては、上記式(1)〜(6)に示される線形式を用いる。
図17に実験結果を示す。図17の実験結果は、24個のフレーズ(Ph.01〜Ph.024)を複数の被験者に発話してもらい、その音声データに基づき被験者の疾患又は症状を推定した場合の実験結果である。
なお、以下において示される「CI」は認知機能障害群に相当し、神経系疾患又は認知機能障害症状を表す。認知機能障害群には、例えば、アルツハイマー型認知症、レビー小体型認知症、軽度認知機能障害、前頭側頭型認知症、脳血管性認知症、若年性認知症、アルコール性認知症、大脳皮質基底核症候群、嗜銀顆粒性認知症、水頭症、及びその他の認知機能障害の症状を呈する疾患、又は認知症障害症状が含まれる。また、「MDs」は精神疾患群に相当し、精神系疾患又は精神障害症状を表す。精神疾患群には、大うつ病性障害、双極性障害、非定型うつ病、気分循環症、気分変調症、統合失調症、及びその他の精神疾患、又は精神障害症状が含まれる。「CTRL」は、精神系疾患、神経系疾患又はそれらの症状の何れも有していないことを表す。
図17の実験結果は、被験者が「CI」であるか否かを推定した結果である。なお、「others」は、被験者が「CI」以外であることを指す。
「第1のスコアによる推定」の行は、上記実施形態において、音響パラメータを特徴量として所定の算出式から算出される第1のスコアのみを用いて疾患又は症状を推定した場合のフレーズ別の正解率である。また、「第2のスコアによる推定」の行は、上記実施形態において、学習済みのResNetから算出される第2のスコアのみを用いて疾患又は症状を推定した場合のフレーズ別の正解率である。
図17に示されるように、第1のスコアのみを用いた場合よりも第2のスコアを用いた場合の方が、正解率が高いフレーズが多い。また、第1のスコアと第2のスコアとを足し合わせることにより合成された合成スコアを用いた場合には、更に高い正解率となっているフレーズが存在することがわかる。
以下の表に、合成スコアと各閾値とを用いて被験者が「CI」であるか否かを推定する場合の偽陽性率と陽性率とを示す。また、図18に、以下の表の数値を用いて作成したROC曲線を示す。
Figure 0006854554
図18を参照すると、学習済みのResNetを用いて第2のスコアを算出しその第2のスコアを用いて疾患又は症状を推定する場合に比べて、合成スコアを用いて疾患又は症状を推定する方が、推定精度が良いことがわかる。
次に、実施例2を説明する。実施例1では被験者が「CI」であるか否かを推定したが、実施例2では被験者が「CI」、「MDs」、及び「CTRL」の何れに該当するかを推定する。
図19は、学習済みのResNetにより第2のスコアを算出し、その第2のスコアのみを用いて疾患又は症状を推定した場合の結果である。図20は、第1実施形態と同様に、第1のスコアと第2のスコアを足し合わせた合成スコアを算出し、その合成スコアを用いて疾患又は症状を推定した場合の結果である。
図21は、第2実施形態と同様に、第1のスコアと既知のニューラルネットワークを用いて算出した第2のスコアを足し合わせた合成スコアを算出し、その合成スコアを用いて疾患又は症状を推定した場合の結果である。なお、図21の結果は、第2のスコアを算出する際に、隠れ層が1層であるニューラルネットワークを用いた場合の結果である。
図22は、第2実施形態と同様に、第1のスコアと既知のニューラルネットワークを用いて算出した第2のスコアを足し合わせた合成スコアを算出し、その合成スコアを用いて疾患又は症状を推定した場合の結果である。なお、図22の結果は、第2のスコアを算出する際に、隠れ層が2層であるニューラルネットワークを用いた場合の結果である。
図19〜図22を参照すると、第2のスコアのみを用いて疾患又は症状を推定するよりも、合成スコアを用いて疾患又は症状を推定する方が、推定精度が良いことがわかる。更に、第1のスコアを算出する際には、ニューラルネットワークを用いた方が、推定精度が良いことがわかる。
以上のような結果から、第1〜第4実施形態の情報処理システムによれば、音声の時系列データから抽出されるパラメータを用いて精神系疾患、神経系疾患又はそれらの症状を推定する場合と比べ、ユーザが精神系疾患、神経系疾患又はそれらの症状を有しているか否かを精度良く推定することができることがわかる。
なお、本開示の技術は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
なお、上記実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field−Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated
Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。または、プロセッサとしては、GPGPU(General−purpose graphics processing unit)を用いてもよい。また、各処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
また、上記各実施形態では、プログラムがストレージに予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の非一時的(non−transitory)記憶媒体に記憶された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
また、本実施形態の各処理を、汎用演算処理装置及び記憶装置等を備えたコンピュータ又はサーバ等により構成して、各処理がプログラムによって実行されるものとしてもよい。このプログラムは記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。もちろん、その他いかなる構成要素についても、単一のコンピュータやサーバによって実現しなければならないものではなく、ネットワークによって接続された複数のコンピュータに分散して実現してもよい。
また、上記実施形態では、第1のスコアと第2のスコアとの和を合成スコアとする場合を例に説明したが、これに限定されるものではない。例えば、第1のスコアと第2のスコアとの重み付け和を合成スコアとするようにしてもよい。
また、上記実施形態では、算出モデルは上記のような線形式又はニューラルネットワークで表される場合を例に説明したが、これに限定されるものではない。算出モデルはその他のモデルであってよく、例えば、ロジスティック回帰の様な非線形結合を用いてもよい。また、学習済みモデルは、ResNetではなく他のモデルであってもよい。
また、上記実施形態の第1のスコアは、ユーザが精神系疾患又は症状を有している度合いを表す第1の精神系疾患又は症状スコア、ユーザが神経系疾患又は症状を有している度合いを表す第1の神経系疾患又は症状スコア、及びユーザが精神系疾患又は症状及び神経系疾患又は症状の何れも有していない度合いを表す第1の健常系スコアの何れか1つを含むようにしてもよい。この場合、第2のスコアは、ユーザが精神系疾患又は症状を有している度合いを表す第2の精神系疾患又は症状スコア、ユーザが神経系疾患又は症状を有している度合いを表す第2の神経系疾患又は症状スコア、及びユーザが精神系疾患又は症状及び神経系疾患又は症状の何れも有していない度合いを表す第2の健常系スコアの何れか1つを含む。そして、合成スコアが算出する際には、第1の精神系疾患又は症状スコアと第2の精神系疾患又は症状スコアとを合成し、第2の精神系疾患又は症状スコアと第1の神経系疾患又は症状スコアとを合成し、第1の健常系スコアと第2の健常系スコアとを合成することにより、合成スコアを算出する。
また、上記各実施形態では、音声データに対応する画像としてスペクトログラム画像を生成する場合を例に説明したが、これに限定されるものではない。音声データに対応する画像であれば、どのような画像であってもよい。例えば、上記図4に示されるような音声データDの波形そのものを画像化し、その画像を学習済みモデルへ入力して第2のスコアを算出するようにしてもよい。この場合には、例えば、情報処理システムは、音声データから抽出された特徴量を、特徴量から精神系疾患、神経系疾患又はそれらの症状の度合いを表すスコアを算出するための予め学習された第1の学習済みモデルへ入力して、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す第1のスコアを算出する。そして、情報処理システムは、音声データから生成された画像を、当該画像から精神系疾患、神経系疾患又はそれらの症状の度合いを表すスコアを算出するための予め学習された第2の学習済みモデルへ入力して、ユーザが精神系疾患、神経系疾患又はそれらの症状を有している度合いを表す第2のスコアを算出する。
本明細書に記載された全ての文献、特許出願、および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (14)

  1. ユーザが発した音声の時系列データである音声データを取得する取得部と、
    前記取得部により取得した前記音声データから、所定の音響パラメータである特徴量を抽出する抽出部と、
    前記取得部により取得した前記音声データを周波数解析することにより、前記音声データのスペクトログラムを表すスペクトログラム画像を生成する生成部と、
    前記抽出部により抽出された前記特徴量と、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め設定された算出モデルとに基づいて、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第1のスコアを算出する第1スコア算出部と、
    前記生成部により生成された前記スペクトログラム画像を、前記スペクトログラム画像から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第2のスコアを算出する第2スコア算出部と、
    前記第1のスコアと前記第2のスコアとを合成することにより、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す合成スコアを算出する合成スコア算出部と、
    前記合成スコア算出部により算出された前記合成スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定する推定部と、
    を含む情報処理装置。
  2. 前記予め設定された算出モデルは、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された第1の学習済みモデルであり、
    前記スペクトログラム画像から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された学習済みモデルは、第2の学習済みモデルであり、
    前記第1スコア算出部は、前記抽出部により抽出された前記特徴量を、前記第1の学習済みモデルへ入力して、前記第1のスコアを算出し、
    前記第2スコア算出部は、前記生成部により生成された前記スペクトログラム画像を、前記第2の学習済みモデルへ入力して、前記第2のスコアを算出する、
    請求項1に記載の情報処理装置。
  3. 前記合成スコア算出部は、前記第1のスコアと前記第2のスコアとの和に応じて、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを算出する、
    請求項1に記載の情報処理装置。
  4. 前記合成スコア算出部は、前記第1のスコアと前記第2のスコアとの重み付け和に応じて、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを算出する、
    請求項1に記載の情報処理装置。
  5. 前記第1のスコアは、前記ユーザが精神系疾患又は症状を有している度合いを表す第1の精神系疾患又は症状スコア、前記ユーザが神経系疾患又は症状を有している度合いを表す第1の神経系疾患又は症状スコア、及び前記ユーザが精神系疾患又は症状及び神経系疾患又は症状の何れも有していない度合いを表す第1の健常系スコアの何れか1つを含み、
    前記第2のスコアは、前記ユーザが精神系疾患又は症状を有している度合いを表す第2の精神系疾患又は症状スコア、前記ユーザが神経系疾患又は症状を有している度合いを表す第2の神経系疾患又は症状スコア、及び前記ユーザが精神系疾患又は症状及び神経系疾患又は症状の何れも有していない度合いを表す第2の健常系スコアの何れか1つを含み、
    前記第1の精神系疾患又は症状スコアと前記第2の精神系疾患又は症状スコアとを合成し、
    前記第2の精神系疾患又は症状スコアと前記第1の神経系疾患又は症状スコアとを合成し、又は
    前記第1の健常系スコアと前記第2の健常系スコアとを合成することにより、
    前記合成スコアを算出する、
    請求項1〜請求項3の何れか1項に記載の情報処理装置。
  6. ユーザが発した音声の時系列データである音声データを取得する取得部と、
    前記取得部により取得した前記音声データを周波数解析することにより、前記音声データのスペクトログラムを表すスペクトログラム画像を生成する生成部と、
    前記取得部により取得した前記音声データから所定の音響パラメータである特徴量を抽出し、前記生成部により生成された前記スペクトログラム画像から学習済みモデルを用いることにより特徴量を抽出する抽出部と、
    前記抽出部により抽出された前記特徴量と、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め設定された算出モデルとに基づいて、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表すスコアを算出するスコア算出部と、
    前記スコア算出部により算出された前記スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定する推定部と、
    を含み、
    前記学習済みモデルは、学習用のスペクトログラム画像と該学習用のスペクトログラム画像に対応する前記音声データを発したユーザが有している疾患又は症状を表す正解ラベルとが対応付けられた教師データにより予め学習された学習済みモデルである、
    情報処理装置。
  7. ユーザが発した音声の時系列データである音声データを取得する取得部と、
    前記取得部により取得した前記音声データから、所定の音響パラメータである特徴量を抽出する抽出部と、
    前記取得部により取得した前記音声データに対応する画像を生成する生成部と、
    前記抽出部により抽出された前記特徴量を、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された第1の学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第1のスコアを算出する第1スコア算出部と、
    前記生成部により生成された前記画像を、前記画像から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された第2の学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第2のスコアを算出する第2スコア算出部と、
    前記第1のスコアと前記第2のスコアとを合成することにより、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す合成スコアを算出する合成スコア算出部と、
    前記合成スコア算出部により算出された前記合成スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定する推定部と、
    を含む情報処理装置。
  8. マイクを備えるユーザ端末と、請求項1〜請求項の何れか1項に記載の情報処理装置とを含む情報処理システムであって、
    前記ユーザ端末は、前記マイクにより取得された前記音声データを前記情報処理装置へ送信し、
    前記情報処理装置の前記取得部は、前記ユーザ端末から送信された前記音声データを取得し、
    前記情報処理装置の通信部は、前記推定部により推定された推定結果をユーザ端末へ送信し、
    前記ユーザ端末は、前記情報処理装置から送信された前記推定結果を受信する、
    情報処理システム。
  9. ユーザが発した音声の時系列データである音声データを取得し、
    前記音声データから、所定の音響パラメータである特徴量を抽出し、
    前記音声データを周波数解析することにより、前記音声データのスペクトログラムを表すスペクトログラム画像を生成し、
    前記特徴量と、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め設定された算出モデルとに基づいて、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第1のスコアを算出し、
    前記スペクトログラム画像を、前記スペクトログラム画像から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第2のスコアを算出し、
    前記第1のスコアと前記第2のスコアとを合成することにより、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す合成スコアを算出し、
    前記合成スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定する、
    処理をコンピュータが実行する情報処理方法。
  10. ユーザが発した音声の時系列データである音声データを取得し、
    取得した前記音声データを周波数解析することにより、前記音声データのスペクトログラムを表すスペクトログラム画像を生成し、
    取得した前記音声データから所定の音響パラメータである特徴量を抽出し、生成された前記スペクトログラム画像から学習済みモデルを用いることにより特徴量を抽出し、
    抽出された前記特徴量と、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め設定された算出モデルとに基づいて、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表すスコアを算出し、
    算出された前記スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定し、
    かつ、前記学習済みモデルは、学習用のスペクトログラム画像と該学習用のスペクトログラム画像に対応する前記音声データを発したユーザが有している疾患又は症状を表す正解ラベルとが対応付けられた教師データにより予め学習された学習済みモデルである、
    処理をコンピュータが実行する情報処理方法。
  11. ユーザが発した音声の時系列データである音声データを取得し、
    取得した前記音声データから、所定の音響パラメータである特徴量を抽出し、
    取得した前記音声データに対応する画像を生成し、
    抽出された前記特徴量を、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された第1の学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第1のスコアを算出し、
    生成された前記画像を、前記画像から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された第2の学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第2のスコアを算出し、
    前記第1のスコアと前記第2のスコアとを合成することにより、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す合成スコアを算出し、
    算出された前記合成スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定する、
    処理をコンピュータが実行する情報処理方法。
  12. ユーザが発した音声の時系列データである音声データを取得し、
    前記音声データから、所定の音響パラメータである特徴量を抽出し、
    前記音声データを周波数解析することにより、前記音声データのスペクトログラムを表すスペクトログラム画像を生成し、
    前記特徴量と、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め設定された算出モデルとに基づいて、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第1のスコアを算出し、
    前記スペクトログラム画像を、前記スペクトログラム画像から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第2のスコアを算出し、
    前記第1のスコアと前記第2のスコアとを合成することにより、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す合成スコアを算出し、
    前記合成スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定する、
    処理をコンピュータに実行させるための情報処理プログラム。
  13. ユーザが発した音声の時系列データである音声データを取得し、
    取得した前記音声データを周波数解析することにより、前記音声データのスペクトログラムを表すスペクトログラム画像を生成し、
    取得した前記音声データから所定の音響パラメータである特徴量を抽出し、生成された前記スペクトログラム画像から学習済みモデルを用いることにより特徴量を抽出し、
    抽出された前記特徴量と、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め設定された算出モデルとに基づいて、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表すスコアを算出し、
    算出された前記スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定し、
    かつ、前記学習済みモデルは、学習用のスペクトログラム画像と該学習用のスペクトログラム画像に対応する前記音声データを発したユーザが有している疾患又は症状を表す正解ラベルとが対応付けられた教師データにより予め学習された学習済みモデルである、
    処理をコンピュータに実行させるための情報処理プログラム。
  14. ユーザが発した音声の時系列データである音声データを取得し、
    取得した前記音声データから、所定の音響パラメータである特徴量を抽出し、
    取得した前記音声データに対応する画像を生成し、
    抽出された前記特徴量を、前記特徴量から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された第1の学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第1のスコアを算出し、
    生成された前記画像を、前記画像から精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状の度合いを表すスコアを算出するための予め学習された第2の学習済みモデルへ入力して、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す第2のスコアを算出し、
    前記第1のスコアと前記第2のスコアとを合成することにより、前記ユーザが精神系疾患若しくは神経系疾患、又は、精神障害症状若しくは認知機能障害症状を有している度合いを表す合成スコアを算出し、
    算出された前記合成スコアに応じて、前記ユーザが何れかの疾患又は症状を有しているか否かを推定する、
    処理をコンピュータに実行させるための情報処理プログラム。
JP2020541455A 2020-06-11 2020-06-11 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム Active JP6854554B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021037791A JP7430398B2 (ja) 2020-06-11 2021-03-09 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/023049 WO2021250854A1 (ja) 2020-06-11 2020-06-11 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021037791A Division JP7430398B2 (ja) 2020-06-11 2021-03-09 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP6854554B1 true JP6854554B1 (ja) 2021-04-07
JPWO2021250854A1 JPWO2021250854A1 (ja) 2021-12-16

Family

ID=75267881

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020541455A Active JP6854554B1 (ja) 2020-06-11 2020-06-11 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム
JP2021037791A Active JP7430398B2 (ja) 2020-06-11 2021-03-09 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021037791A Active JP7430398B2 (ja) 2020-06-11 2021-03-09 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム

Country Status (4)

Country Link
US (1) US20230210451A1 (ja)
EP (1) EP4166092A4 (ja)
JP (2) JP6854554B1 (ja)
WO (1) WO2021250854A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022139943A2 (en) * 2020-10-23 2022-06-30 Remmie, Inc. Machine learning for ear disease diagnosis assistance
KR20240010219A (ko) * 2022-07-15 2024-01-23 에스케이텔레콤 주식회사 음정 떨림 특성을 이용한 음성질환 진단 방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011255106A (ja) * 2010-06-11 2011-12-22 Nagoya Institute Of Technology 認知機能障害危険度算出装置、認知機能障害危険度算出システム、及びプログラム
US20170354363A1 (en) * 2011-08-02 2017-12-14 Massachusetts Institute Of Technology Phonologically-based biomarkers for major depressive disorder
JP2018121749A (ja) * 2017-01-30 2018-08-09 株式会社リコー 診断装置、プログラム及び診断システム
JP2019187492A (ja) * 2018-04-18 2019-10-31 Pst株式会社 推定方法および推定装置
CN110495854A (zh) * 2019-07-30 2019-11-26 科大讯飞股份有限公司 特征提取方法、装置、电子设备及存储介质
WO2020013296A1 (ja) * 2018-07-13 2020-01-16 Pst株式会社 精神・神経系疾患を推定する装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3016418C (en) * 2016-03-03 2020-04-14 Google Llc Deep machine learning methods and apparatus for robotic grasping
US9739783B1 (en) * 2016-03-15 2017-08-22 Anixa Diagnostics Corporation Convolutional neural networks for cancer diagnosis
WO2018173108A1 (ja) * 2017-03-21 2018-09-27 富士通株式会社 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム
CN107464230B (zh) * 2017-08-23 2020-05-08 京东方科技集团股份有限公司 图像处理方法及装置
US20190385711A1 (en) * 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011255106A (ja) * 2010-06-11 2011-12-22 Nagoya Institute Of Technology 認知機能障害危険度算出装置、認知機能障害危険度算出システム、及びプログラム
US20170354363A1 (en) * 2011-08-02 2017-12-14 Massachusetts Institute Of Technology Phonologically-based biomarkers for major depressive disorder
JP2018121749A (ja) * 2017-01-30 2018-08-09 株式会社リコー 診断装置、プログラム及び診断システム
JP2019187492A (ja) * 2018-04-18 2019-10-31 Pst株式会社 推定方法および推定装置
WO2020013296A1 (ja) * 2018-07-13 2020-01-16 Pst株式会社 精神・神経系疾患を推定する装置
CN110495854A (zh) * 2019-07-30 2019-11-26 科大讯飞股份有限公司 特征提取方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
EP4166092A1 (en) 2023-04-19
WO2021250854A1 (ja) 2021-12-16
JPWO2021250854A1 (ja) 2021-12-16
US20230210451A1 (en) 2023-07-06
EP4166092A4 (en) 2024-03-06
JP7430398B2 (ja) 2024-02-13
JP2021194527A (ja) 2021-12-27

Similar Documents

Publication Publication Date Title
Schuller et al. The interspeech 2017 computational paralinguistics challenge: Addressee, cold & snoring
Byun et al. Retroflex versus bunched in treatment for rhotic misarticulation: Evidence from ultrasound biofeedback intervention
Wang et al. Articulatory distinctiveness of vowels and consonants: A data-driven approach
Dawson et al. Methods for quantifying tongue shape and complexity using ultrasound imaging
CN106073706B (zh) 一种面向简易精神状态量表的个性化信息和音频数据分析方法及***
JP6854554B1 (ja) 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム
Lee et al. Acoustic and tongue kinematic vowel space in speakers with and without dysarthria
Csapó et al. Error analysis of extracted tongue contours from 2d ultrasound images.
Carignan et al. Analyzing speech in both time and space: Generalized additive mixed models can uncover systematic patterns of variation in vocal tract shape in real-time MRI
Abushakra et al. Augmenting breath regulation using a mobile driven virtual reality therapy framework
Weirich et al. Palatal morphology can influence speaker-specific realizations of phonemic contrasts
Gómez-Vilda et al. Monitoring amyotrophic lateral sclerosis by biomechanical modeling of speech production
CN114582487A (zh) 基于中医知识图谱的中医辅助诊疗的方法及***
Kearney et al. Treating speech movement hypokinesia in Parkinson's disease: Does movement size matter?
Ribeiro et al. Exploiting ultrasound tongue imaging for the automatic detection of speech articulation errors
JP2015103183A (ja) 診療支援装置
Feld et al. There goes the neighborhood: Lipreading and the structure of the mental lexicon
Guarin et al. Video-based facial movement analysis in the assessment of bulbar amyotrophic lateral sclerosis: clinical validation
Silva et al. Critical Articulators Identification from RT-MRI of the Vocal Tract.
JP2020086023A (ja) 行動識別方法、行動識別装置、行動識別プログラム、機械学習方法、機械学習装置及び機械学習プログラム
Zourmand et al. A magnetic resonance imaging study on the articulatory and acoustic speech parameters of Malay vowels
CN116741330A (zh) 诊疗报告生成方法、装置、设备及存储介质
WO2019073900A1 (ja) 機械学習装置、判定装置、機械学習方法、判定方法、学習用プログラム、判定用プログラムおよび記録媒体
Faes et al. Speech production accuracy of children with auditory brainstem implants: A comparison with peers with cochlear implants and typical hearing using Levenshtein Distance
CN109697413B (zh) 基于头部姿态的人格分析方法、***和存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200728

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200728

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210309

R150 Certificate of patent or registration of utility model

Ref document number: 6854554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250