JP6263308B1 - 認知症診断装置、認知症診断方法、及び認知症診断プログラム - Google Patents

認知症診断装置、認知症診断方法、及び認知症診断プログラム Download PDF

Info

Publication number
JP6263308B1
JP6263308B1 JP2017216536A JP2017216536A JP6263308B1 JP 6263308 B1 JP6263308 B1 JP 6263308B1 JP 2017216536 A JP2017216536 A JP 2017216536A JP 2017216536 A JP2017216536 A JP 2017216536A JP 6263308 B1 JP6263308 B1 JP 6263308B1
Authority
JP
Japan
Prior art keywords
dementia
subject
patient
response
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017216536A
Other languages
English (en)
Other versions
JP2019084249A (ja
Inventor
祐一郎 清水
祐一郎 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PHC Holdings Corp
Original Assignee
Panasonic Healthcare Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Healthcare Holdings Co Ltd filed Critical Panasonic Healthcare Holdings Co Ltd
Priority to JP2017216536A priority Critical patent/JP6263308B1/ja
Application granted granted Critical
Publication of JP6263308B1 publication Critical patent/JP6263308B1/ja
Publication of JP2019084249A publication Critical patent/JP2019084249A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】患者自身に心理的な抵抗感を持たせることなく、高精度な認知症診断を実現し得る認知症診断装置を提供すること。【解決手段】認知症診断装置1であって、被検者H1と質問者H2の会話に係る音声データを取得する音声取得部11と、前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する音声解析部12と、学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する認知症レベル算出部13と、を備え、前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則した認知症レベルを出力するように、学習処理が施されている。【選択図】図3

Description

本開示は、認知症診断装置、認知症診断方法、及び認知症診断プログラムに関する。
従来、患者の認知症を診断する手法として、長谷川式認知症診断テスト(長谷川式スケールとも称される)、MMSE(Mini Mental State Examination)認知症診断テスト等が知られている。
この種の認知症診断は、特定の質問(例えば、年齢、見当識、3単語の即時記銘と遅延再生、計算、数字の逆唱、物品記銘)を投げかけた際の患者の回答内容に基づいて、認知症の進行度合いを示す認知症レベル(認知症スコアとも称される)を決定するテスト形式の診断手法である。
尚、特許文献1には、この種の認知症診断を自動化する技術として、患者の発話を記憶した音声データの休止成分を利用し、認知症の進行度合いを判断する手法等が記載されている。
特表2011−502564号公報
しかしながら、この種の認知症診断は、テスト形式であるため、患者に認知症診断を意識させることになり、診断される患者自身に心理的な抵抗感を持たせることが課題となっている。加えて、かかる認知症診断を専門医ではない者が実施しても、患者の正確な認知症レベルを診断することは、困難である。
他方、特許文献1の従来技術では、音声データとして用いる発話内容、患者の性格に依拠した個人差、及び、その時々の患者の状態等による影響が大きい。そのため、高精度な認知症診断が困難である上、認知症以外の要因によるばらつきが生じやすい。
本開示は、上記問題点に鑑みてなされたもので、患者自身に心理的な抵抗感を持たせることなく、高精度な認知症診断を実現し得る認知症診断装置、認知症診断方法、及び認知症診断プログラムを提供することを目的とする。
前述した課題を解決する主たる本開示は、
被検者と質問者の会話に係る音声データを取得する音声取得部と、
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する音声解析部と、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する認知症レベル算出部と、
を備え、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則して認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断装置である。
又、他の局面では、
被検者と質問者の会話に係る音声データを取得し、
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出し、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する、
認知症診断方法であって、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則して認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断方法である。
又、他の局面では、
コンピュータに、
被検者と質問者の会話に係る音声データを取得する処理と、
前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する処理と、
学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する処理と、
を実行させる認知症診断プログラムであって、
前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則して認知症レベルを出力するように、教師データを用いた学習処理が施された、
認知症診断プログラムである。
本開示に係る認知症診断装置によれば、患者自身に心理的な抵抗感を持たせることなく、高精度な認知症診断を実現することができる。
第1の実施形態に係る認知症診断システムの構成の一例を示す図 第1の実施形態に係る端末装置の構成の一例を示す図 第1の実施形態に係る認知症診断装置の機能ブロックの一例を示す図 第1の実施形態に係る認知症診断装置のハードウェア構成の一例を示す図 第1の実施形態に係る音声解析部の処理の一例を示すフローチャート 第1の実施形態に係る音声解析部が実行する処理について模式的に説明する図 第1の実施形態に係る識別器の構成の一例を示す図 第1の実施形態に係る患者の認知症レベルの表示態様の一例を示す図 第1の実施形態に係る学習処理部が行う学習処理の一例を示すフローチャート 第2の実施形態に係る認知症診断装置の構成の一例を示す図 第2の実施形態に係る認知症レベル算出部が用いる識別器の構成の一例を示す図 第3の実施形態に係る認知症診断装置の構成の一例を示す図 第3の実施形態に係る認知症レベル算出部が用いる識別器の構成の一例を示す図
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[認知症診断システムの全体構成]
以下、図1〜図3を参照して、一実施形態に係る認知症診断システムUの構成について説明する。
図1は、本実施形態に係る認知症診断システムUの構成の一例を示す図である。
本実施形態に係る認知症診断システムUは、医師等H2と患者H1の会話を録音する端末装置2と、当該端末装置2で録音された音声データから患者H1の認知症レベルを算出する認知症診断装置1と、を備えている。
本実施形態に係る認知症診断システムUは、例えば、病院に通院する患者H1(例えば、慢性疾患等で通院する高齢者)の認知症診断の用に供される。
本実施形態に係る認知症診断システムUは、診察室R(医師等H2が患者H1の診察を行う場所を意味する。以下同じ)に設置された端末装置2にて、医師等H2と患者H1の会話を録音する。そして、認知症診断装置1が、患者H1と医師等H2の会話に係る音声データを用いて、当該患者H1の認知症レベルを算出する。尚、認知症診断装置1と端末装置2とは、通信回線Nを介して通信接続されている。尚、遠隔診療などで医師H2と患者H1が同一の病室にいない態様であってもよい。
尚、本実施形態に係る患者H1及び医師等H2が、それぞれ、本発明の「被検者」及び「質問者」に相当する。但し、本実施形態に係る認知症診断システムUは、病院以外に適用されてもよく、「被検者」と「質問者」が存在する任意の場面で利用し得る。
図2は、本実施形態に係る端末装置2の構成の一例を示す図である。
端末装置2は、例えば、医師等H2が患者H1の電子カルテ等を閲覧する用に供されるコンピュータである。端末装置2は、例えば、病院の診察室Rに設置され、医師等H2(例えば、医師)が患者H1に対して問診を行った際の患者H1と医師等H2の会話に係る音声データを生成する。
端末装置2は、例えば、音声入力部21、記憶部22、通信部23、操作入力部24、表示部25、及び制御部26を備えている。
音声入力部21は、例えば、一般的なマイクロホンであり、外部から入力される音声をAD変換して、音声波形を示す音声データを生成する。
音声入力部21は、例えば、病院内の診察室Rに配設され、医師等H2と患者H1の会話に係る音声データを生成する。音声入力部21が生成した音声データは、PCMデータ等のデータ形式で記憶部22に記憶され、通信部23により、認知症診断装置1に対して送信される。尚、音声入力部21として、複数個のマイクロホンが用いられてもよい。
記憶部22は、RAM、ROM、HDD、フラッシュメモリ等を含んで構成され、システムプログラム、当該システムプログラム上で実行可能なアプリケーションプログラム、及び各種データ(例えば、音声データ)を記憶する。
通信部23は、通信回線Nを介して、認知症診断装置1等の外部機器とデータの送受信を行うための通信インタフェイスである。通信部23は、例えば、LANアダプターによって構成される。
操作入力部24は、医師等H2等が端末装置2に対して操作入力を行うためのユーザインタフェイスであり、例えば、キーボードによって構成される。
表示部25は、例えば、液晶ディスプレイによって構成される。表示部25は、例えば、患者H1のカルテ画面等を表示したり、認知症診断装置1から取得した患者H1の認知症診断の診断結果データを閲覧可能な状態で表示する(詳細は後述)。
制御部26は、端末装置2の各部を統括制御するもので、例えば、CPU、ROM、RAM等を含んで構成される。
図3は、本実施形態に係る認知症診断装置1の機能ブロックの一例を示す図である。
認知症診断装置1は、例えば、音声入力部21で生成された音声データに基づいて、診察室Rに訪れた患者H1の認知症レベルの診断を行う解析サーバである。
認知症診断装置1は、音声取得部11、音声解析部12、認知症レベル算出部13、出力部14、及び学習処理部15を備えている。
音声取得部11は、端末装置2から医師等H2と患者H1の会話に係る音声データD1を取得する。
音声解析部12は、音声取得部11から音声データD1を取得し、音響モデルのデータDt1(以下、音響モデルDt1)及び分類ルールのデータDt2(以下、分類ルールデータDt2)等を用いて、当該音声データD1の音声解析を行い、医師等H2の質問内容の種別を特定すると共に、患者H1の応答特徴を抽出する。
認知症レベル算出部13は、音声解析部12から医師等H2の質問内容の種別と関連付けられた患者H1の応答特徴のデータD2を取得して、学習済みの識別器のデータDm(以下、識別器Dm)を用いて、患者H1の認知症レベルを算出する。
出力部14は、認知症レベル算出部13から患者H1の認知症レベルのデータD3を取得して、当該患者H1の認知症の進行状況の経時的変化を示すデータD4を出力する。
学習処理部15は、患者H1の応答特徴が医師等H2の質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則(例えば、長谷川式認知症診断テスト、MMSE式認知症診断テスト)に則した認知症レベルを出力するように、識別器Dmに対して機械学習を施す。尚、学習処理部15は、音声取得部11、音声解析部12、認知症レベル算出部13、及び出力部14とは独立して、認知症診断システムUを稼働させる前の準備段階で動作する処理部である。
尚、図3中の矢印は、各機能の処理のフロー、及びデータD1〜D4の流れを表す。
図4は、本実施形態に係る認知症診断装置1のハードウェア構成の一例を示す図である。
認知症診断装置1は、主たるコンポーネントとして、CPU101、ROM102、RAM103、外部記憶装置(例えば、フラッシュメモリ)104、及び通信インタフェイス105等を備えたコンピュータである。
認知症診断装置1の上記した各機能は、例えば、CPU101がROM102、RAM103、外部記憶装置104等に記憶された処理プログラムや各種データ(例えば、音響モデルデータDt1、分類ルールデータDt2、識別器のモデルデータDm、及び患者の履歴データDr等)を参照することによって実現される。尚、RAM102は、例えば、データの作業領域や一時退避領域として機能する。
但し、上記した各機能の一部又は全部は、CPU101による処理に代えて、又は、これと共に、DSPによる処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に代えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。
以下、図3、図5〜図9を参照して、認知症診断装置1の構成の詳細について、説明する。
[音声取得部]
音声取得部11は、端末装置2から、通信回線Nを介して、医師等H2と患者H1の会話に係る音声データD1を取得する。
尚、医師等H2と患者H1の会話に係る音声データD1は、医師等H2の発言を録音するマイクロホンで生成された音声データと、患者H1の発言を録音するマイクロホンで生成された音声データと、により構成されてもよい。このように複数の音声データを用いる場合には、音声解析部12は、例えば、複数の音声データ間で時間軸を揃えて、後述の音声解析の処理を行う。
又、遠隔診療に適用する場合にも、同様に、別個のマイクロホンで生成された音声データを用いることになる。尚、この場合には、例えば、患者H1の音声を録音する端末及び医師H2の音声を録音する端末から、各別に音声データをクラウド上にアップロードする態様になる。かかる態様は、患者H1の音声と医師H2の音声が明確に区別できる点で有用である。
[音声解析部]
音声解析部12は、音声取得部11から音声データD1を取得して、当該音声データD1を音声解析する。音声解析部12は、医師等H2が発話する発話区間(以下、「医師発話区間」と略称する)における質問内容の種別(以下、「質問種別」と称する)を特定すると共に、当該医師発話区間に続いて患者H1が発話する発話区間(以下、「患者発話区間」と略称する)における患者H1の応答特徴(以下、「応答特徴」と略称する)を抽出する。
尚、音声解析部12は、当該音声解析処理をする際に、患者H1の応答特徴を抽出するための音響モデルのデータDt1、及び、医師等H2の質問種別を分類するための分類ルールのデータDt2を参照する(詳細は後述)。
ここで、「応答特徴」とは、発話するテンポ、質問に対して応答する速度、一回の患者発話区間内における語数、一回の患者発話区間内における語彙力、又は、質問に対する発話内容の的確性等であり、これらのうちの一以上の情報が用いられる。但し、「応答特徴」は、患者発話区間内の音声データの周波数変化を抽出しただけの音声特徴量(例えば、Mel-Frequency Cepstrum Coefficients:MFCC)の時系列データ等であってもよい。
「応答特徴」は、例えば、患者H1の発話区間毎に抽出され、通常、一連の会話中(即ち、一回の診察中)において、複数回抽出される。
「応答特徴」は、患者H1の発話区間の直前に行われた医師等H2の質問種別と関連付けて抽出される。換言すると、患者発話区間に抽出される「応答特徴」は、当該患者発話区間の直前の医師発話区間に抽出される「質問種別」と1セットとして関連付けられる。
尚、音声データD1には、通常、時系列に、医師発話区間と患者発話区間とが交互に出現する。但し、音声データD1中から、医師等H2が質問を行った医師発話区間とその直後に患者が応答した患者発話区間とのみを部分的に抽出してもよい。
ここで、「質問種別」とは、医師等H2が患者H1に対して行う質問内容を特定するものである。「質問種別」としては、例えば、挨拶、体調を問う質問、前回の診察から今回の診察までの変化に関する質問(例えば、痛みの増加度合いを問う質問等)、服薬状況を確認するための質問、日常生活に関わる質問(例えば、毎日の食生活を問う質問等)、又は、患者H1の過去のエピソードに関する質問(例えば、患者H1の母校を問う質問等)等があり、これらのうちの一以上の種別が用いられる。但し、「質問種別」は、認知症診断システムUの利用態様に応じて、適宜設定されるものであってよい。
認知症は、脳機能の低下に起因しており、一般に、言語能力、見当識又は記憶力等の低下として表出する。質問に対して応答する際には、かかる言語能力、見当識又は記憶力等が用いられるため、患者H1が医師等H2に対して応答する際の応答特徴は、認知症の進行度合いを図る有益な指標となる。
但し、「応答特徴」から認知症診断を行う際には、種々の応答特徴に基づく総合的な判断が必要であるため、専門医でない者が日常会話の中の応答態様から認知症レベルを正確に診断することは、困難な場合が多い。
そこで、本実施形態に係る認知症診断装置1は、種々の質問に対する「応答特徴」を抽出すると共に、医師等H2の「質問種別」と関連付けて「応答特徴」を抽出する。そして、本実施形態に係る認知症診断装置1は、機械学習が施された識別器(詳細は、図7等を参照して後述)を用いて、これらの複数の要素間の相関関係の解析を行い、総合的な判断を可能とする。
尚、このように、医師等H2の「質問種別」と関連付けて「応答特徴」を抽出するのは、認知症の判断材料となる「応答特徴」が、医師等H2の質問内容に照らすことで表出するためである。特に、問診において、医師等H2が患者H1に対して質問する質問内容は、比較的限定されている。従って、医師等H2の「質問種別」を特定し、当該「質問種別」と関連付けて患者H1の「応答特徴」を分析することによって、認知症に起因した患者H1の応答特徴を高精度に抽出することが可能となる。
例えば、患者H1の言語能力(例えば、一回の発話区間の語数)は、診察開始時の医師等H2のアイスブレイクの質問(例えば、体調を問う質問や挨拶)の際には判断が困難である一方、日常生活に関わる質問(例えば、最近の食生活を問う質問)の際には比較的判断が容易である。
又、例えば、患者H1の記憶力は、現在の気分を確認するための質問の際には判断が困難である一方、患者H1の過去のエピソードに関する質問(例えば、10年前の出来事を問う質問、病院に来るまでの移動手段や病院に来るまでに何をしていたかを問う質問)の際には比較的判断が容易である。
加えて、認知症診断の際に参照する「応答特徴」は、患者H1の性格に依拠する要素(即ち、個体差)を取り除く方が望ましい。かかる患者H1の性格に依拠した「応答特徴」は、当該患者H1の複数の「応答特徴」(例えば、患者H1の記憶力に関連する質問内容に応答する際の応答特徴と、患者H1の記憶力に関連しない質問内容に応答する際の応答特徴)を比較することによって、取り除くことが容易になる。
図5は、音声解析部12の処理の一例を示すフローチャートである。当該フローチャートは、例えば、音声解析部12がコンピュータプログラムに従って実行する処理である。
図6は、音声解析部12が実行する処理について模式的に説明する図である。図6の波形は、音声データD1中の医師発話区間V2と患者発話区間V1の音声波形の一部を示している。
尚、音声解析部12は、外部記憶装置104に予め記憶した音響モデル、話者モデル、辞書、言語モデル等のデータDt1(図3には、音響モデルのみを示す)を参照して、音声データD1の音声解析を行う。
音響モデルとは、例えば、音声の特徴量と発音記号との確率的な対応付けをデータ化したものである。又、話者モデルとは、医師等H2の音声の特徴(例えば、発話周波数)を示す音響モデルである。又、辞書とは、例えば、単語の表記と読みを記述したものである。又、言語モデルとは、例えば、辞書に記述された単語それぞれについて、当該単語の出現確率や当該単語と他の単語との接続確率をデータ化したものである。
又、音声解析部12は、外部記憶装置104に予め記憶した分類ルールのデータDt2を参照して、医師発話区間V2における医師等H2の質問内容の種別を分類する。
ステップS1において、音声解析部12は、まず、音声データD1に対してフレーム化処理を行い、フレームごとにフーリエ解析を含む所定の処理を行って、音声データD1を音声特徴量(例えば、MFCC)の時系列データD1aに変換する。
ステップS2において、音声解析部12は、音声特徴量の時系列データD1aを医師発話区間V2と患者発話区間V1とに分離する。
このステップS2において、音声解析部12は、例えば、音声データ(音声特徴量の時系列データD1a)中で音量が時間的に連続して閾値以上の大きさを有する区間を一回の発話区間として識別する。又、この際、音声解析部12は、例えば、話者モデル(例えば、医師等H2の音声の特徴を示す音響モデル)を参照して、各発話区間の話者を特定する。
ステップS3において、音声解析部12は、音声データ(音声特徴量の時系列データD1a)中の時系列順の医師発話区間V2と患者発話区間V1とに基づいて、医師等H2と患者H1の時系列の質疑応答を順番に抽出する。つまり、このステップS3において、音声解析部12は、音声データの時系列順に、医師等H2の質問と当該質問に続く患者H1の応答のセットを抽出する(図6を参照)。
このステップS3において、音声データ中に未処理の質疑応答がある場合(ステップS3:YES)、音声解析部12は、ステップS4に処理を進める。一方、未処理の質疑応答がない場合(ステップS3:NO)、音声解析部12は、一連のフローを終了する。
ステップS4において、音声解析部12は、医師発話区間V2における医師等H2の質問種別を特定する。
このステップS4において、音声解析部12は、例えば、音響モデル、辞書、及び言語モデル等のデータDt1を参照して、医師発話区間V2における音声特徴量の時系列データの音声パターンを認識し、医師発話区間V2の発話内容をテキスト化する。そして、音声解析部12は、分類ルールのデータDt2を参照して、医師発話区間V2で医師等H2が質問した質問内容の質問種別を特定する。
尚、このステップS4において、医師発話区間V2の質問種別は、例えば、テキスト化された医師発話区間V2の発話内容中に出現する単語(例えば、「食事」、「出身」、「調子」又は「慢性疾患(病名)」等)や、当該単語の連なり(例えば、「先週(時期を示す単語)」の後に「でしたか(過去を問う単語)」)等によって、特定することができる。
ステップS5において、音声解析部12は、患者発話区間V1における患者H1の応答特徴を抽出する。
このステップS5において、音声解析部12は、例えば、外部記憶装置104に予め格納された音響モデル、辞書、及び言語モデル等を参照して、患者H1が発話するテンポ、タイミング、一回の患者発話区間内における語数、一回の患者発話区間内における語彙、又は、発話内容等の患者の応答特徴を抽出する。
ステップS6において、音声解析部12は、ステップS5で抽出した患者H1の応答特徴を、ステップS4で特定した医師等H2の質問種別と関連付けて、記憶部(例えば、RAM)に記憶する。
このステップS6の処理を行った後、音声解析部12は、ステップS3に戻って、音声データD1の時系列順の医師発話区間V2と患者発話区間V1とを抽出し、ステップS4〜ステップS6の処理を繰り返し実行する。
尚、音声解析部12において、医師発話区間V2と患者発話区間V1とを識別する手法は、任意である。例えば、医師等H2の発話を録音するマイクロホンと、患者H1の発話を録音するマイクロホンと、を各別に設けて、医師発話区間V2と患者発話区間V1とを識別する手法を用いてもよい。
又、音声解析部12において、医師発話区間V2における医師等H2の質問種別を特定する手法、及び患者発話区間V1における患者H1の応答特徴を抽出する手法も、任意である。
[認知症レベル算出部]
認知症レベル算出部13は、音声解析部12から、医師等H2の質問種別と関連付けられた患者H1の応答特徴に関するデータD2を取得する。そして、認知症レベル算出部13は、学習済みの識別器Dmを用いて、当該データD2を解析し、患者H1の認知症レベルを算出する。
識別器Dmとしては、患者H1の応答特徴が医師等H2の質問種別と関連付けて入力された際に、所定の認知症レベル決定則(例えば、長谷川式認知症診断テストやMMSE式認知症診断テスト)に則した認知症レベルを出力するように、教師データを用いた学習処理が施されたものが用いられる。
識別器Dmとしては、例えば、ニューラルネットワーク、回帰木、SVM(Support Vector Machine)、ベイズ識別器、又、これらのアンサンブルモデル等、任意の学習器を用いることができる。尚、当該識別器Dmとしては、いわゆるディープラーニングが適用される識別器であってもよいのは勿論である。
一般に、機械学習によって識別機能を保有する識別器は、複数の要素間の相関関係の解析に適しており、テンポ、単語数、語彙数又は応答速度等、複数の要素として表出する認知症を診断する用には好適である。
但し、識別器の識別精度は、一般に、入力される特徴ベクトルに依拠する。かかる観点から、本実施形態に係る識別器Dmは、音声解析部12にて抽出された質問種別毎に応答特徴を入力する構成としている。
尚、学習済みの識別器Dmのモデルデータ(例えば、構造データ及び学習済みのパラメータデータ等)は、例えば、処理プログラムと共に、予め外部記憶装置104に格納されている。
図7は、本実施形態に係る識別器Dm(ここでは、ニューラルネットワーク)の構成の一例を示す図である。
本実施形態に係る識別器Dmは、入力層として、患者H1の応答特徴に関するデータD2を入力するための複数の入力ユニットを有している。
複数の入力ユニットX〜Xは、それぞれ、質問種別Q1に対する応答特徴、質問種別Q2に対する応答特徴、質問種別Q3に対する応答特徴、・・質問種別Qkに対する応答特徴のように、質問種別と関連付けて入力を受け付ける構成となっている。
尚、図7では、一の質問種別に対して、一の入力ユニットのみを図示しているが、より好適には、一の質問種別に対して、複数の観点の応答特徴(例えば、テンポ、単語数、語彙数及び応答速度等)に対応する複数の入力ユニットが設けられる。
入力する際の「応答特徴」のデータ形式は、質問種別と関連付けられていれば任意である。例えば、「応答特徴」は、音声データD1からテンポ、単語数、語彙数又は応答速度等に係るデータに各別に分離された状態で入力されてもよいし、音声データD1を音声特徴量(例えば、MFCC)に変換しただけの時系列データが入力されてもよい。
ニューラルネットワークのその他の構成は、公知の技術と同様であり、ニューラルネットワークは、入力層に入力された情報が、中間層、出力層へと順に伝搬(演算)されることにより、出力層から認知症レベルを出力する。例えば、中間層は、複数の中間ユニットZ(j=1〜n(ユニット数))により構成されている。そして、入力層の入力ユニットX(i=1〜k(ユニット数))に入力された情報Xが、夫々の結合係数Wji(図示せず)で重みづけ(積算)されて、中間層の各中間ユニットZに入力され、それらが加算されて各中間ユニットZの値となる。又、中間層の各中間ユニットZの値は、入出力関数(例えば、シグモイド関数)で非線形変換されて、夫々の結合係数V(図示せず)で重みづけ(積算)されて、出力層の出力ユニットUに入力され、それらが加算されて出力層の出力ユニットUの値となる。
認知症レベル算出部13は、かかる識別器Dmの順伝播処理によって、認知症レベルを算出する。尚、図中では、一例として、認知症レベルを0%(認知症に該当しないレベル)〜100%(重度の認知症に該当するレベル)の間の値として出力する態様を示している。
尚、上記した識別器Dmの構成は、一例であって、種々に変更されてよい。又、識別器Dmは、入力ユニットX〜Xに入力する応答特徴のデータの正規化処理等の前処理部を更に有していてもよい。
[出力部]
出力部14は、認知症レベル算出部13から患者H1の認知症診断の結果(即ち、認知症レベル)のデータD3を取得し、端末装置2に表示させるデータ形式に変換したデータD4を、端末装置2に対して出力する。端末装置2は、出力部14から当該データD4を取得するに応じて、表示部25に表示する(図8を参照)。
この際、出力部14は、例えば、患者H1の履歴データDrを参照して、過去の他の日時の音声データについて算出された患者H1の認知症レベルを取得し、患者H1の経時的な変化を示すデータとして出力する。
尚、患者H1の履歴データDrは、種々の患者の認知症レベルの履歴データを記憶するデータベースの当該患者H1分のデータである。患者H1の履歴データDrは、例えば、認知症レベル算出部13で患者H1の認知症レベルが算出される毎に、当該認知症レベル及び算出した日時が当該患者H1の識別情報と関連付けて記憶される。
図8は、患者H1の認知症レベルの表示態様の一例を示す図である。
図8の縦軸は認知症レベル算出部13が算出した認知症レベルを表し、横軸は当該認知症レベルが算出された日時を表す。ここでは、出力部14は、例えば、過去の日時からの患者H1の認知症レベルの経時的な変化に関する情報(即ち、履歴)を端末装置2に表示させている。
これによって、医師等は、当該患者H1について、認知症レベルの進行状況をより正確に把握することができる。
尚、出力部14の構成としては、上記態様に限定されない。出力部14は、例えば、認知症レベルに閾値を設定し、ある閾値を超えた場合に、アラートをあらかじめ登録のメールアドレスなどを通じて関係者に発信するという構成であってもよい。
[学習処理部]
学習処理部15は、識別器Dmが医師等H2と患者H1の会話(即ち、患者H1の応答特徴)から、認知症レベルを算出し得るように、識別器Dmに対して教師データを用いた機械学習を実行する。
学習処理部15は、教師データを用いた公知の機械学習により、識別器Dmを最適化する(例えば、ニューラルネットワークの重み係数及びバイアス等のネットワークパラメータ)。
教師データ(図示せず)は、例えば、ある患者(上記の被検者たる患者H1とは異なる患者)に対して行われた認知症診断テスト(例えば、長谷川式認知症診断テストやMMSE認知症診断テスト等)の認知症レベルと、当該患者(即ち、認知症診断テストを受けた患者)に対して医師等が問診を行った際の音声データのデータセットである。かかるデータセットが、複数の患者分用意されて、教師データを構成する。
尚、識別器Dmの識別性能は、教師データに依拠するため、教師データとして用いる認知症レベルは、特に、専門医が診断した結果であることが望ましい。
図9は、学習処理部15が行う学習処理の一例を示すフローチャートである。
ステップS11においては、学習処理部15は、まず、学習処理に用いていない未処理の教師データがあるか否かを判定し、未処理の教師データがある場合(S11:YES)、ステップS12に処理を進め、未処理の教師データがない場合(S11:NO)、学習処理部15は、一連の処理を終了するべく、ステップS14に処理を進める。
ステップS12においては、学習処理部15は、未処理の教師データを記憶部から取得する。
ステップS13においては、学習処理部15は、前処理として、音声データに対して音声解析部12と同様の処理を実行する。即ち、学習処理部15は、医師発話区間における質問種別を特定すると共に、当該医師発話区間に続いて患者が発話する発話区間における患者の応答特徴を抽出する。
ステップS14においては、学習処理部15は、教師データを用いて、識別器Dmに対して学習処理を施す。尚、この際の学習処理は、公知の手法と同様である。学習処理部15は、例えば、認知症レベルの正解値に対する識別器Dmが出力する出力値の誤差(損失Lossとも称される)が小さくなるように、公知の誤差逆伝播法等によって、ネットワークパラメータ(重み係数、及びバイアス等)の修正が行われる。
このステップS14の後、学習処理部15は、再度、ステップS11に戻って処理を実行する。
ステップS15においては、学習処理部15は、学習処理を施した識別器Dmのデータ(学習済みのネットワークパラメータ)を、例えば、外部記憶装置104に格納する。そして、一連のフローを終了する。
識別器Dmは、かかる学習処理によって、医師等H2の質問種別と関連付けられた患者H1の応答特徴に関するデータD2から、患者H1の認知症レベルを出力し得るように、最適化される。
[効果]
以上のように、本実施形態に係る認知症診断装置1によれば、患者H1と医師等H2の会話に係る音声データを取得する音声取得部11と、音声データの音声解析を行って、医師等H2が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて患者H1が発話する発話区間における応答特徴を抽出する音声解析部12と、学習済みの識別器Dmに対して、患者H1の応答特徴を質問内容の種別と関連付けて入力し、患者H1の認知症レベルを算出する認知症レベル算出部13と、を備えている。又、識別器Dmは、患者H1の応答特徴が質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に基づいて決定された認知症レベルを出力するように、教師データを用いた学習処理が施されている。
これによって、種々の質問に対する患者H1の応答態様を用いて、認知症の進行度合いを診断することが可能となる。換言すると、特殊な認知症テスト(例えば、長谷川式認知症テストやMMSE式認知症テスト)を実施することなく、診察時の会話等から、簡易に、且つ、高精度に、認知症レベルを算出することが可能となる。
(第2の実施形態)
次に、図10及び図11を参照して、第2の実施形態に係る認知症診断装置1について説明する。
本実施形態に係る認知症診断装置1は、認知症レベル算出部13が、現時点(第1の日時に相当)における患者H1の応答特徴に加えて、過去時点(第2の日時に相当)における患者の応答特徴の情報を参照する点で、第1の実施形態に係る認知症診断装置1と相違する。尚、第1の実施形態と共通する構成については、説明を省略する(以下、他の実施形態についても同様)。
図10は、本実施形態に係る認知症診断装置1の構成の一例を示す図である。図11は、本実施形態に係る認知症レベル算出部13が用いる識別器Dmの構成の一例を示す図である。
本実施形態に係る認知症レベル算出部13は、認知症レベルを算出する際に利用した患者H1の応答特徴の情報を、当該患者H1の識別情報と関連付けて患者履歴データDrに格納する。そして、認知症レベル算出部13は、後日(例えば、1年後)、当該患者H1の認知症レベルを再度算出する際に、患者履歴データDrに格納した過去時点における患者H1の応答特徴の情報を参照する。
本実施形態に係る識別器Dmの入力層は、日時Aにおける患者H1の応答特徴を入力する入力ユニットX−A〜X−A、日時Bにおける患者H1の応答特徴を入力する入力ユニットX−B〜X−B、及び、日時Cにおける患者H1の応答特徴を入力する入力ユニットX−C〜X−C、を有している。尚、入力ユニットに付した符号「…−A」、「…−B」及び「…−C」は、それぞれ、入力対象とする日時を表している。
本実施形態に係る識別器Dmの入力ユニットX−A〜X−A、X−B〜X−B、X−C〜X−Cも、第1の実施形態に係る識別器Dmと同様に、それぞれ、質問種別Q1に対する応答特徴、質問種別Q2に対する応答特徴、質問種別Q3に対する応答特徴、・・質問種別Qkに対する応答特徴のように、質問種別と関連付けて入力を受け付ける構成となっている。尚、識別器Dmのその他の構成は、第1の実施形態に係る識別器Dmと同様である。
尚、識別器Dmには、異なる日時に行われた会話における被検者の応答特徴に代えて、異なる日時に行われた会話における被検者の応答特徴の日時間での変化に係る情報が入力されてもよい。
つまり、本実施形態に係る識別器Dmは、現時点における患者H1の応答特徴に加えて、過去時点(例えば、1年前)における患者H1の応答特徴を参照して、認知症レベルを算出するように構成されている。
このように、患者H1の応答態様の経時的な変化を抽出することで、患者H1の人格に依拠したノイズ要因を排除することが可能であり、より高精度に患者H1の認知症レベルを算出することが可能となる。
以上のように、本実施形態に係る認知症診断装置1によれば、異なる日時に行われた会話における患者H1の応答特徴、又は、異なる日時に行われた会話における患者H1の応答答特徴の日時間での変化に係る情報を用いて、患者H1の認知症レベルを算出する。これによって、より高精度に患者H1の認知症レベルを算出することができる。
(第3の実施形態)
次に、図12及び図13を参照して、第3の実施形態に係る認知症診断装置1について説明する。
本実施形態に係る認知症診断装置1は、認知症レベル算出部13が、質問に対する患者H1の応答特徴の情報に加えて、患者H1の行動記録の情報(例えば、服薬記録)を参照する点で、第1の実施形態に係る認知症診断装置1と相違する。
図12は、本実施形態に係る認知症診断装置1の構成の一例を示す図である。図13は、本実施形態に係る認知症レベル算出部13が用いる識別器Dmの構成の一例を示す図である。
本実施形態に係る認知症診断装置1は、患者H1が保有する患者端末(例えば、携帯端末。図1には、図示せず)から、患者H1の行動記録のデータD5(例えば、服薬記録)を取得する行動記録取得部16を備えている。
又、本実施形態に係る識別器Dmの入力層は、患者H1の応答特徴を入力する入力ユニットX〜Xに加えて、患者H1の行動記録のデータD5を入力する入力ユニットXk+1を有している。
尚、ここでは、説明の便宜として、患者H1の行動記録の情報を入力する入力ユニットの数を一としているが、複数設けられてもよいのは、勿論である。又、行動記録取得部16が取得した患者H1の行動記録の情報に対して、所定の前処理を施してもよい。
認知症の進行は、一般に、日常の行動の変化として表出しやすい。認知症が進行した患者H1は、例えば、処方された薬を服薬し忘れたり、外出する頻度が低下したりする傾向にある。
このような観点から、本実施形態に係る認知症診断装置1は、患者H1の行動記録の情報(例えば、服薬記録)を参照して、患者H1の認知症レベルを算出する。尚、行動記録の情報は、例えば、患者H1が自身の患者端末に日常的に記録する服薬記録の情報等を用いることができる。又、その他、端末装置に設けられたGPSの情報から、患者H1の移動記録の情報を取得してもよい。
以上のように、本実施形態に係る認知症診断装置1によれば、患者H1の行動記録の情報を参照して、患者H1の認知症レベルを算出する。これによって、より高精度に患者H1の認知症レベルを算出することができる。
尚、上記実施形態では、患者H1の行動記録の情報の一例として、患者端末から取得した服薬記録の情報としたが、カメラ端末(例えば、診察室に設置されているカメラ端末)で撮影された患者H1の画像情報を用いてもよい。
認知症の進行は、一般に、行動障害を伴うため、例えば、カメラ端末で撮影された患者H1の舞踏運動(非律動的・突発的な不随意運動)、振戦(筋肉が律動的に収縮する不随意運動)、又は姿勢反射運動(体が傾いたときに倒れないように立て直す反応が損なわれた状態)等についても、認知症レベルを算出する際に、有用な情報となり得る。
(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
又、上記実施形態では、認知症診断装置1の構成の一例として、学習処理部15を備える構成を示した。但し、認知症診断装置1とは別の学習装置において、識別器Dmに対して機械学習を施しておき、認知症診断装置1は、当該学習済みの識別器Dmを取得して、外部記憶装置104等に記憶しておく構成としてもよいのは、勿論である。
又、上記実施形態では、認知症診断装置1の構成の一例として、音声取得部11、音声解析部12、認知症レベル算出部13、出力部14、及び学習処理部15の機能が一のコンピュータによって実現されるものとして記載したが、複数のコンピュータによって実現されてもよいのは勿論である。又、当該コンピュータに読み出されるプログラムやデータも、複数のコンピュータに分散して格納されてもよい。
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
本開示に係る認知症診断装置によれば、患者自身に心理的な抵抗感を持たせることなく、高精度な認知症診断を実現することができる。
U 認知症診断システム
1 認知症診断装置
11 音声取得部
12 音声解析部
13 認知症レベル算出部
14 出力部
15 学習処理部
16 行動記録取得部
2 端末装置
21 音声入力部
22 記憶部
23 通信部
24 操作入力部
25 表示部
26 制御部

Claims (15)

  1. 被検者と質問者の会話に係る音声データを取得する音声取得部と、
    前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する音声解析部と、
    学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する認知症レベル算出部と、
    を備え、
    前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則した認知症レベルを出力するように、教師データを用いた学習処理が施された、
    認知症診断装置。
  2. 前記音声解析部は、前記音声データ中において、前記質問内容の種別と前記応答特徴との組を複数抽出する、
    請求項1に記載の認知症診断装置。
  3. 前記質問内容の種別は、前記被検者に過去を想起させる質問内容の種別を含む、
    請求項1又は2に記載の認知症診断装置。
  4. 前記被検者の前記応答特徴は、前記被検者の発話区間におけるテンポ、単語数、語彙力、前記質問者からの質問に対する応答内容の的確性、及び、前記質問者からの質問に対する応答速度のうちの少なくとも一を含む、
    請求項1乃至3のいずれか一項に記載の認知症診断装置。
  5. 前記被検者の前記応答特徴は、前記質問内容の種別毎に、前記被検者の発話区間におけるテンポ、単語数、語彙力、前記質問者からの質問に対する応答内容の的確性、及び、前記質問者からの質問に対する応答速度のうち、二以上の観点を有する、
    請求項4に記載の認知症診断装置。
  6. 前記被検者の認知症レベルに係る履歴を出力する出力部、を更に備える、
    請求項1乃至5のいずれか一項に記載の認知症診断装置。
  7. 前記識別器に入力する前記被検者の前記応答特徴は、第1及び第2の日時における前記会話に係る前記音声データから抽出された前記被検者の前記応答特徴の情報を含む、
    請求項1乃至6のいずれか一項に記載の認知症診断装置。
  8. 前記識別器には、更に、前記被検者の行動記録に関する情報が入力される、
    請求項1乃至7のいずれか一項に記載の認知症診断装置。
  9. 前記被検者の行動記録は、前記被検者の服薬記録に関する情報を含む、
    請求項1乃至8のいずれか一項に記載の認知症診断装置。
  10. 前記被検者の行動記録は、前記被検者の動作に関する情報を含む、
    請求項8に記載の認知症診断装置。
  11. 前記被検者と前記質問者は、それぞれ、患者と医師である、
    請求項1乃至10のいずれか一項に記載の認知症診断装置。
  12. 前記所定の認知症レベル決定則は、長谷川式認知症診断テスト、又は、MMSE式認知症診断テストである、
    請求項1乃至11のいずれか一項に記載の認知症診断装置。
  13. 前記識別器は、ニューラルネットワーク又は回帰木を含んで構成される、
    請求項1乃至12のいずれか一項に記載の認知症診断装置。
  14. 被検者と質問者の会話に係る音声データを取得し、
    前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出し、
    学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する、
    認知症診断方法であって、
    前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則した認知症レベルを出力するように、教師データを用いた学習処理が施された、
    認知症診断方法。
  15. コンピュータに、
    被検者と質問者の会話に係る音声データを取得する処理と、
    前記音声データの音声解析を行って、前記質問者が発話する発話区間における質問内容の種別を特定すると共に、当該発話区間に続いて前記被検者が発話する発話区間における応答特徴を抽出する処理と、
    学習済みの識別器に対して、前記被検者の前記応答特徴を前記質問内容の種別と関連付けて入力し、前記被検者の認知症レベルを算出する処理と、
    を実行させる認知症診断プログラムであって、
    前記識別器は、前記被検者の前記応答特徴が前記質問内容の種別と関連付けて入力された際に、所定の認知症レベル決定則に則した認知症レベルを出力するように、教師データを用いた学習処理が施された、
    認知症診断プログラム。
JP2017216536A 2017-11-09 2017-11-09 認知症診断装置、認知症診断方法、及び認知症診断プログラム Active JP6263308B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017216536A JP6263308B1 (ja) 2017-11-09 2017-11-09 認知症診断装置、認知症診断方法、及び認知症診断プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017216536A JP6263308B1 (ja) 2017-11-09 2017-11-09 認知症診断装置、認知症診断方法、及び認知症診断プログラム

Publications (2)

Publication Number Publication Date
JP6263308B1 true JP6263308B1 (ja) 2018-01-17
JP2019084249A JP2019084249A (ja) 2019-06-06

Family

ID=60989311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017216536A Active JP6263308B1 (ja) 2017-11-09 2017-11-09 認知症診断装置、認知症診断方法、及び認知症診断プログラム

Country Status (1)

Country Link
JP (1) JP6263308B1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754822A (zh) * 2019-01-22 2019-05-14 平安科技(深圳)有限公司 建立阿兹海默症检测模型的方法和装置
KR102042489B1 (ko) * 2019-05-23 2019-11-08 하창수 마을 방송 시스템
JP2019198695A (ja) * 2019-08-21 2019-11-21 西日本電信電話株式会社 通知システム、通知装置、通知方法、及びプログラム
KR20200082145A (ko) * 2018-12-28 2020-07-08 주식회사 보듬 경도 인지 장애 선별 시스템 및 방법
JP2020126419A (ja) * 2019-02-04 2020-08-20 日本電気株式会社 操作可否判断支援装置、システム、方法およびプログラム
JP2020140481A (ja) * 2019-02-28 2020-09-03 日本電気株式会社 処理装置、処理方法及びプログラム
JP2020140480A (ja) * 2019-02-28 2020-09-03 日本電気株式会社 処理装置、処理方法及びプログラム
JP2020181422A (ja) * 2019-04-25 2020-11-05 キヤノン株式会社 医療診断支援システム、医療診断支援装置、医療診断支援方法及びプログラム
JP2021029692A (ja) * 2019-08-26 2021-03-01 Tdk株式会社 軽度認知障害判定システム
JP2021064284A (ja) * 2019-10-16 2021-04-22 パナソニックIpマネジメント株式会社 認知機能評価システム、認知機能評価方法、及びプログラム
WO2022234693A1 (ja) * 2021-05-07 2022-11-10 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP7479711B2 (ja) 2019-03-12 2024-05-09 コルディオ メディカル リミテッド 音声サンプルのアライメントに基づく診断手法
JP7507025B2 (ja) 2020-07-22 2024-06-27 靖恵 満倉 診断支援システム、診断支援方法、及び診断支援プログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6804779B2 (ja) * 2018-07-24 2020-12-23 日本テクトシステムズ株式会社 軽度の認知機能障害の推定システム、軽度の認知機能障害の推定装置、及び軽度の認知機能障害の有無を推定するためのプログラム
JP7239109B2 (ja) * 2019-06-12 2023-03-14 株式会社モリタ製作所 推定装置、推定システム、推定装置の作動方法、および推定用プログラム
JP6712028B1 (ja) * 2020-01-09 2020-06-17 株式会社エクサウィザーズ 認知機能判定装置、認知機能判定システム及びコンピュータプログラム
KR102329954B1 (ko) * 2020-02-25 2021-11-22 광운대학교 산학협력단 인지장애 진단 모니터링 시스템, 서버 및 진단 모니터링 방법
JP7378076B2 (ja) * 2020-04-24 2023-11-13 パナソニックIpマネジメント株式会社 認知機能検査方法、プログラム、及び認知機能検査システム
JP2023533331A (ja) * 2020-07-10 2023-08-02 イモコグ カンパニー リミテッド 音声特性に基づくアルツハイマー病予測方法及び装置
US11495211B2 (en) 2020-10-29 2022-11-08 International Business Machines Corporation Memory deterioration detection and amelioration
JP7261258B2 (ja) * 2021-03-31 2023-04-19 西日本電信電話株式会社 情報提供装置、情報提供方法及びコンピュータープログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240394A (ja) * 2002-12-12 2004-08-26 Sense It Smart Corp 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム
JP2007282992A (ja) * 2006-04-19 2007-11-01 Sky Kk 認知症診断支援システム
JP2011502564A (ja) * 2007-11-02 2011-01-27 シーグベルト ワーケンチン, 発語分析による加齢脳および脳疾患によって誘発された脳機能障害の評価のためのシステムおよび方法
JP2013246459A (ja) * 2012-05-23 2013-12-09 Sharp Corp 認知症問診支援装置
JP2017156402A (ja) * 2016-02-29 2017-09-07 国立大学法人 奈良先端科学技術大学院大学 診断装置、診断方法、及び診断プログラム
WO2017168907A1 (ja) * 2016-03-31 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240394A (ja) * 2002-12-12 2004-08-26 Sense It Smart Corp 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム
JP2007282992A (ja) * 2006-04-19 2007-11-01 Sky Kk 認知症診断支援システム
JP2011502564A (ja) * 2007-11-02 2011-01-27 シーグベルト ワーケンチン, 発語分析による加齢脳および脳疾患によって誘発された脳機能障害の評価のためのシステムおよび方法
JP2013246459A (ja) * 2012-05-23 2013-12-09 Sharp Corp 認知症問診支援装置
JP2017156402A (ja) * 2016-02-29 2017-09-07 国立大学法人 奈良先端科学技術大学院大学 診断装置、診断方法、及び診断プログラム
WO2017168907A1 (ja) * 2016-03-31 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102254685B1 (ko) * 2018-12-28 2021-05-21 주식회사 보듬 경도 인지 장애 선별 시스템
KR20200082145A (ko) * 2018-12-28 2020-07-08 주식회사 보듬 경도 인지 장애 선별 시스템 및 방법
CN109754822A (zh) * 2019-01-22 2019-05-14 平安科技(深圳)有限公司 建立阿兹海默症检测模型的方法和装置
WO2020151155A1 (zh) * 2019-01-22 2020-07-30 平安科技(深圳)有限公司 建立阿兹海默症检测模型的方法和装置
JP2020126419A (ja) * 2019-02-04 2020-08-20 日本電気株式会社 操作可否判断支援装置、システム、方法およびプログラム
JP2020140481A (ja) * 2019-02-28 2020-09-03 日本電気株式会社 処理装置、処理方法及びプログラム
JP2020140480A (ja) * 2019-02-28 2020-09-03 日本電気株式会社 処理装置、処理方法及びプログラム
JP7211160B2 (ja) 2019-02-28 2023-01-24 日本電気株式会社 処理装置、処理方法及びプログラム
JP7211161B2 (ja) 2019-02-28 2023-01-24 日本電気株式会社 処理装置、処理方法及びプログラム
JP7492715B2 (ja) 2019-03-12 2024-05-30 コルディオ メディカル リミテッド 音声モデルに基づく診断技術
JP7479711B2 (ja) 2019-03-12 2024-05-09 コルディオ メディカル リミテッド 音声サンプルのアライメントに基づく診断手法
JP2020181422A (ja) * 2019-04-25 2020-11-05 キヤノン株式会社 医療診断支援システム、医療診断支援装置、医療診断支援方法及びプログラム
JP7327987B2 (ja) 2019-04-25 2023-08-16 キヤノン株式会社 医療診断支援システム、医療診断支援装置、医療診断支援方法及びプログラム
KR102042489B1 (ko) * 2019-05-23 2019-11-08 하창수 마을 방송 시스템
JP2019198695A (ja) * 2019-08-21 2019-11-21 西日本電信電話株式会社 通知システム、通知装置、通知方法、及びプログラム
JP7293050B2 (ja) 2019-08-26 2023-06-19 Tdk株式会社 軽度認知障害判定システム
JP2021029692A (ja) * 2019-08-26 2021-03-01 Tdk株式会社 軽度認知障害判定システム
JP2021064284A (ja) * 2019-10-16 2021-04-22 パナソニックIpマネジメント株式会社 認知機能評価システム、認知機能評価方法、及びプログラム
JP7507025B2 (ja) 2020-07-22 2024-06-27 靖恵 満倉 診断支援システム、診断支援方法、及び診断支援プログラム
WO2022234693A1 (ja) * 2021-05-07 2022-11-10 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2019084249A (ja) 2019-06-06

Similar Documents

Publication Publication Date Title
JP6263308B1 (ja) 認知症診断装置、認知症診断方法、及び認知症診断プログラム
KR102237539B1 (ko) 음성 대화 분석을 기반으로 하는 치매 및 인지 능력 판단 시스템 및 방법
US20130158434A1 (en) Apparatus for voice assisted medical diagnosis
JP2017532082A (ja) 患者の精神状態のスピーチベース評価のためのシステム
JP4495907B2 (ja) 音声の分析の方法及び装置
CN102149319A (zh) 阿尔茨海默氏症认知使能器
JP7390268B2 (ja) 認知機能予測装置、認知機能予測方法、プログラム及びシステム
US20200160881A1 (en) Language disorder diagnosis/screening
Samareh et al. Detect depression from communication: How computer vision, signal processing, and sentiment analysis join forces
KR102444012B1 (ko) 말 장애 평가 장치, 방법 및 프로그램
JP7183483B1 (ja) 自動的で客観的な症状の重症度スコア
JP2018169506A (ja) 会話満足度推定装置、音声処理装置および会話満足度推定方法
US20240023858A1 (en) Systems and methods for human-machine partnered ptsd prediction
Usman et al. Heart rate detection and classification from speech spectral features using machine learning
Soumaya et al. A hybrid method for the diagnosis and classifying parkinson's patients based on time–frequency domain properties and K-nearest neighbor
JP4631464B2 (ja) 体調判定装置およびそのプログラム
JP2021110895A (ja) 難聴判定装置、難聴判定システム、コンピュータプログラム及び認知機能レベル補正方法
JP7040593B2 (ja) 接客支援装置、接客支援方法、及び、接客支援プログラム
US20220005494A1 (en) Speech analysis devices and methods for identifying migraine attacks
US20230162835A1 (en) System and Method for Collecting and Analyzing Mental Health Data Using Computer Assisted Qualitative Data Analysis Software
JP7515934B2 (ja) 会話ベースの精神障害選別方法及びその装置
US20240023877A1 (en) Detection of cognitive impairment
JP7307507B2 (ja) 病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラム
Syed et al. Static vs. dynamic modelling of acoustic speech features for detection of dementia
US20240071412A1 (en) Method and system for predicting a mental condition of a speaker

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171109

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171109

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171215

R150 Certificate of patent or registration of utility model

Ref document number: 6263308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250