JP2021133005A - 聴診システム及び聴診方法 - Google Patents

聴診システム及び聴診方法 Download PDF

Info

Publication number
JP2021133005A
JP2021133005A JP2020032789A JP2020032789A JP2021133005A JP 2021133005 A JP2021133005 A JP 2021133005A JP 2020032789 A JP2020032789 A JP 2020032789A JP 2020032789 A JP2020032789 A JP 2020032789A JP 2021133005 A JP2021133005 A JP 2021133005A
Authority
JP
Japan
Prior art keywords
auscultation
data
sound
normal
abnormal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020032789A
Other languages
English (en)
Inventor
宏樹 田村
Hiroki Tamura
宏樹 田村
広行 福元
Hiroyuki Fukumoto
広行 福元
公司 興梠
Koji Korogi
公司 興梠
亮一 寺崎
Ryoichi Terasaki
亮一 寺崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DENSAN KK
Iti co Ltd
Miyazaki Association Clinical Engineering Technologists
University of Miyazaki NUC
Original Assignee
DENSAN KK
Iti co Ltd
Miyazaki Association Clinical Engineering Technologists
University of Miyazaki NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DENSAN KK, Iti co Ltd, Miyazaki Association Clinical Engineering Technologists, University of Miyazaki NUC filed Critical DENSAN KK
Priority to JP2020032789A priority Critical patent/JP2021133005A/ja
Publication of JP2021133005A publication Critical patent/JP2021133005A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】デジタル聴診器から取得した聴診音データを、機械学習を利用して良否判定を行う技術及び判定結果を可視化する聴診システム及び聴診方法を提供する。【解決手段】聴診システム1000は、デジタル聴診器100により取得された聴診音データから複数の特徴量を抽出する特徴量計算部43aと、前記特徴量を入力して、正常又は異常に分類する学習モデル43b,43dと、前記聴診音データを、前記特徴量と、前記学習モデルによる分類結果と、に基づいてマッピングしたデータマップを生成するデータマップ生成部43cと、を含む。【選択図】図1

Description

本発明は、聴診システム及び聴診方法に関し、特に、デジタル聴診器から取得した聴診音データを、機械学習を利用して良否判定を行う技術及び判定結果を可視化する技術に関する。
医師が聴診器を用いて取得する心音・肺音・血流音等の聴診音は、疾病の診断や身体深部の病状を観察するために非常に重要である。しかし、聴診器で取得される聴診音を正しく評価することは、定性的な判断を伴うために、医師の長年の経験と技術によるところが大きく、容易ではない。
そのため、従来から、聴診器によって取得した聴診音をデジタル方式で記録・処理し、聴診音の周波数を解析することによって、定量的に聴診音の異常を識別するためのシステムや聴診方法が開示されてきた。
例えば、特許文献1には、心音の周波数に対して複数個の信号強度閾値を設定して、波形を解析し、サポートベクターマシンによって、心臓疾患の簡易判断を行うシステムが開示されている。
特許文献2には、振幅の分散値によって心音の振幅を解析し、ニューラルネットワークの学習によって、心音と心雑音との区別を行うシステムが開示されている。
特開2009−240527号公報 特開平5−309074号公報
しかし、従来からあるデジタル型の聴診器は、高価であることに加えて、心音を記録したり、心音の波形を表示したりする機能に留まるものが多い。
また、特許文献1や特許文献2のようなシステムも、専門的な判断を必要とするため、医師等の医学的知識がある人でないと正しく使用することが難しく、汎用性に乏しい。
ゆえに、従来の医学教育において、学生が聴診技術を学習するにあたり、定性的な評価指標が用いられることが多く、定量的な評価指標が少ないために、学習効率が上がらないという課題があった。
また、近年増加している在宅医療・介護の現場で、医学的知識を持たない人が、聴診音から簡易に健康状態を識別するためのシステムは、現在存在していない。
そこで、本発明はこのような課題を解決するためのものであり、聴診システム及び聴診方法に関し、特に、デジタル聴診器から取得した聴診音データを、機械学習を利用して良否判定を行う技術及び判定結果を可視化する技術を提供する。
一実施の形態によれば、聴診システムは、デジタル聴診器により取得された聴診音データから複数の特徴量を抽出する特徴量計算部と、前記特徴量を入力して、正常又は異常に分類する学習モデルと、前記聴診音データを、前記特徴量と、前記学習モデルによる分類結果と、に基づいてマッピングしたデータマップを生成するデータマップ生成部と、を含む。
一実施の形態によれば、前記学習モデルは、前記特徴量を入力して、正常又は異常の別と、症例と、を判定するものであり、前記データマップ生成部は、前記聴診音データを、前記特徴量と、前記学習モデルによる分類結果と、に基づいてマッピングしたデータマップを生成する。
一実施の形態によれば、前記データマップ生成部は、前記聴診音データの正常率又は異常率を計算し、前記データマップに少なくとも前記正常率又は前記異常率のいずれか一方を表示する。
一実施の形態によれば、前記正常率又は異常率は、正常音集団又は異常音集団の中心値と、前記特徴量と、の距離に基づいて計算される。
一実施の形態によれば、前記データマップ生成部は、前記聴診音データの症例率を計算し、前記データマップに表示する。
一実施の形態によれば、少なくとも2次元の散布図、又は、3次元のデータマップのいずれか一方の表示が選択可能に構成されている。
一実施の形態によれば、聴診システムは、前記聴診音データに対し、ノイズ処理、周波数調整または振幅調整を行うデータ前処理部をさらに含む。
一実施の形態によれば、聴診方法は、コンピュータが、デジタル聴診器により取得された聴診音データから複数の特徴量を抽出する特徴量計算ステップと、学習モデルに前記特徴量を入力して、正常又は異常に分類する分類ステップと、前記聴診音データを、前記特徴量と、前記学習モデルによる分類結果と、に基づいてマッピングしたデータマップを生成するデータマップ生成ステップと、を含む。
本発明により、聴診システム及び聴診方法に関し、特に、デジタル聴診器から取得した聴診音データを、機械学習を利用して良否判定を行う技術及び判定結果を可視化する技術を提供する。
聴診システム1000の構成を示す全体図である。 聴診音判定端末400の構成例を示すブロック図である。 聴診システム1000の動作例を示すフローチャートである。 聴診システム1000による判定結果(正常)を可視化した例を示す図である。 聴診システム1000による判定結果(異常)を3次元表示で可視化した例を示す図である。 聴診システム1000による判定結果(病名)を3次元表示で可視化した例を示す図である。 聴診システム1000による判定結果(時系列表示)を3次元表示で可視化した例を示す図である。 聴診システム1000による判定結果(正常及び異常)を2次元表示で可視化した例を示す図である。 図8をグルーピングして表示した例を示す図である。 聴診部の適切な位置を示すガイド及びマーカーの表示例を示す図である。
まず、本発明の説明に先立ち、本発明の前提技術について説明する。
超高齢社会の進行に伴い、膨れ上がる医療費を削減するため、政府による在宅医療・介護推進の動きが加速している。在宅医療で必要な診療機器は、聴診器、血圧計、パルスオキシメーターといった簡素な機器である。これらの機器に加えて、既存の生体情報(血圧・脈拍・体温・酸素飽和度等)を利用して診断を行っている。
このような状況で、聴診器から得られる情報は、身体深部における病状の観察や疾病の兆候の把握等に重要であり、聴診器は有効な医療機器である。それで、安価かつ小型・軽量で携帯に適している現在のアナログ聴診器は、医療従事者の必需品として活用されている。
しかしながら、聴診器が1816年に発明されて以来、約200年の長き間、その原型は変わっていない。近年、デジタル聴診器が開発され、音源を固定(記録)し、医師が固定した音を再生する技術は確立されたものの、それを可視化する技術はベクトル音波の表示に留まり、より分かりやすく可視化する技術は未だ確立されていない。
そのため、従来の医学教育において、聴診音を診断する方法は、雑音があるかないか、どのような性質の音か、といった定性的な評価を基礎としており、定量的な判断材料が乏しいために、経験や知識の少ない学生が聴診技術を習得することは容易ではなく、学習効率が悪い。
また、在宅医療においても、訪問看護師が聴診を行った時に異常所見がみられても、聴診音を言語化することが難しいため、正確に医師に伝達することが出来ないという問題点がある。
さらに、在宅医療・介護の需要の増加と訪問看護師の不足を背景に、治療に至る前段階として、各家庭で簡単に異常の有無を判断できるシステムの必要性が高まっているが、この市場の要求に、技術が必ずしも追いついていないのが現状である。
そこで本発明は、タブレットやスマートフォン等の一般の人が普段使用している端末を用いて、聴診器が取得した聴診音を記録し、聴診音の簡易判定を行い、判定結果を分かりやすく可視化する。また、保存された聴診音データの時系列での変化を表示する。さらに、聴診音の計測時に、適切な聴診部の位置を誘導するガイド及びマーカーを表示する。これによって、学生や医学的知識を持たない人でも、場所を選ばずに簡易に聴診音を評価し、身体の状態を記録することができる。
次に、本発明の具体的な実施の形態について、図を用いて説明する。
<実施の形態1>
図1は、実施の形態1にかかる聴診システム1000の構成を示す全体図である。聴診システム1000は、デジタル聴診器100、聴診音可視化端末(診察用)200、聴診音可視化端末(教育用)300、聴診音判定端末400、を備える。
デジタル聴診器100は、聴診部、通信部を備える。
聴診部は、直接人の皮膚又は服の上に当てることによって、心音、肺音、血流音等の聴診音を取得する。
通信部は、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300と接続して、聴診部が取得した聴診音を該端末に送信する。
デジタル聴診器100と該聴診音可視化端末は、USBケーブル等による有線、又はBluetooth(登録商標)等による無線通信によって接続される。
聴診音可視化端末(診察用)200は、不図示の制御部、記憶部、及び、通信部を備えている。
制御部は、デジタル聴診器100から受信した聴診音を計算処理し、可視化するためのプログラムを実行する。
記憶部は、デジタル聴診器100から受信した聴診音データ、年齢・性別等の患者属性データ、聴診音データを計算処理するためのプログラム等を格納する。
通信部は、ネットワーク500を介して、無線(有線でもよい)通信によって聴診音判定端末400と接続して、記憶部に格納されている聴診音データ、患者属性データ等を送信する。また、聴診音判定端末400から、聴診音の判定結果等を受信する。
典型的には、聴診音可視化端末(診察用)200は、医療従事者や在宅介護に携わる人が、患者や要介護者を診察する際に、デジタル聴診器100と接続して用いる。
聴診音可視化端末(教育用)300は、聴診音可視化端末(診察用)200と同様の構成である。
典型的には、該端末は、学生等が聴診技術を習得するための教育用であって、詳しくは後述するが、症例別の聴診音データを再生したり、再生した聴診音が何の症例かを自己テストしたりする機能を有する。
なお、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300は、一般的には、上記の構成に加えて、タッチパネル等の入力部、ディスプレイ等の表示部、カメラ等の撮影部を備えるスマートフォンやタブレットを用いることができる。
本システムのユーザは、該端末の入力部を用いて、聴診音を取得する患者の性別や年齢等の患者属性データを入力したり、表示部を用いて、データマップを表示したり、撮影部を用いて、患者の聴診部である胸部や背部を映し出したりする。
聴診音判定端末400は、ネットワーク500を介して、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300から聴診音データを受信し、その良否を判定する機能を有する。
聴診音判定端末400の具体的な構成について説明する。
図2は、聴診音判定端末400の構成例を示すブロック図である。聴診音判定端末400は、通信部40、記憶部41、データ前処理部42、及び、機械学習部43を備える。
なお、記憶部41、データ前処理部42、機械学習部43が有する機能の一部又は全部は、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300に実装されてもよいし、ネットワーク500上に設置する図示しないサーバ、クラウドコンピューティング、フォグコンピューティング又はエッジコンピューティング環境等に実装されてもよい。
通信部40は、ネットワーク500を介して、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300と接続し、聴診音データや患者属性データを受信する。また、聴診音の判定結果を該端末に送信する。
記憶部41は、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300から受信した聴診音データ及び患者属性データ、後述する聴診ビッグデータ、データ前処理部42又は機械学習部43で実行するプログラム等を格納する。
データ前処理部42は、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300から受信した聴診音データ、及び、記憶部41に格納されている聴診ビッグデータの前処理を行う。データの前処理には、対象の聴診音(典型的には心音)の周波数帯とは明らかに異なる周波数帯をカットする処理(ノイズカット)、及び、対象の聴診音のサンプリング周波数を同一に設定する処理(初期設定)等が含まれる。
機械学習部43は、特徴量計算部43aと、ニューラルネットワーク部43b又はSVM判定部43dと、データマップ生成部43cと、を備える。
特徴量計算部43aは、ウェーブレット変換部1と、エントロピー算出部2と、を備える。特徴量計算部43aは、ウェーブレット変換部1とエントロピー算出部2によって、対象の聴診音データからそれぞれ異なる性質を持った特徴量を抽出する。
ウェーブレット変換部1は、対象の聴診音データに対して、時間変化させながら周波数解析を行い、それぞれの周波数要素が最大になった値を特徴量として出力する。
エントロピー算出部2は、対象の聴診音データに対して、データ全てに一括に周波数解析を行い、それぞれの周波数要素の値と全周波数要素の値の比率を特徴量として出力する。
ニューラルネットワーク部43b又はSVM判定部43dは、分類器として機能する。分類器は、多数のデータを幾つかの種類に分類する処理を実行する。種々の分類手法が公知であるが、ニューラルネットワーク部43bはニューラルネットワークによる分類を行い、SVM判定部43dは、サポートベクターマシンによる分類を行うことができる。ニューラルネットワーク部43b又はSVM判定部43dのいずれの分類器を採用するかは任意である。
学習フェーズにおいて、ニューラルネットワーク部43b又はSVM判定部43dは、特徴量計算部43aによって算出された聴診音の特徴量と、聴診音が正常であるか異常であるかを示すラベルと、を少なくとも含む学習用データセットを大量に入力する。なお、ラベルとして、症例が入力されてもよい。また、聴診音の特徴量と共に、患者属性データが入力されてもよい。患者属性データは、患者の性別、年齢、血圧、脈拍、体温、酸素飽和度等の生体情報を含む。学習フェーズで用いる聴診音、患者属性データ、各種ラベル等のデータセットは、聴診ビッグデータとして記憶部41に記憶されているものとする。
ニューラルネットワーク部43b又はSVM判定部43dは、これら学習用データセットを用いた学習を繰り返していくうちに、聴診音の特徴量と、正常又は異常の別と、の相関性を示す学習モデルを獲得する。そして、形成された学習モデルは、未知の聴診音の特徴量の入力に対して、少なくとも正常又は異常を識別することができるものとなる。なお、症例をラベルとして追加した場合、学習モデルは、聴診音の特徴量と、正常又は異常の別及び症例と、の相関性を示すものとなる。また、患者属性データを学習用データセットに追加した場合、学習モデルは、患者属性に応じて、聴診音の特徴量と、正常又は異常の別及び症例と、の相関性を示すものとなる。
なお、分類器は、ニューラルネットワーク部43b又はSVM判定部43d以外の公知の機械学習手法を用いた学習モデルによって構築されてもよい。ここで示す機械学習手法、学習用データの作成方法、学習ステップ等は例示であり、他の任意の手法等を用いることが可能である。
また、ニューラルネットワーク部43b又はSVM判定部43dは、機械学習手法として、上述の教師あり学習のほか、教師なし学習、強化学習、深層学習等を採用してもよい。
また、聴診ビッグデータに何らかの前処理(公知・周知の技術を含む。)を施して学習用データを作成してもよい。学習用データとしてデジタル聴診器100により取得された聴診音データ等を利用してもよい。さらに、学習ステップはバッチで行っても良く、あるいは、オンライン学習等により随時学習を行う方式を採用しても良く、任意のタイミングで再学習を行ってもよい。
分類フェーズにおいて、ニューラルネットワーク部43b又はSVM判定部43dは、デジタル聴診器100により取得された聴診音データから特徴量計算部43aが算出した特徴量を学習モデルに入力する。この際、聴診音可視化端末(診察用)200又は聴診音可視化端末(教育用)300から入力された患者属性データをあわせて入力してもよい。学習モデルは、入力された特徴量等に相関の高いラベル、すなわち正常又は異常、あるいは症例等を分類結果として出力する。
データマップ生成部43cは、ニューラルネットワーク部43b又はSVM判定部43dによる出力値、すなわち聴診音の分類に基づいてデータマップを生成する。具体的には、ウェーブレット変換部1によって抽出された特徴量と、エントロピー算出部2によって抽出された特徴量と、の分布を2次元の散布図によって表す。また、該2つの特徴量に、サンプルの個数の表示を加えた、3次元のデータマップを生成することもできる。以下に述べる実施の形態では、3次元のデータマップ(単にデータマップと述べる場合もある。)を生成する。このデータマップ内には、正常音集団、異常音集団、特定の症例集団の存在範囲を描画する。
さらに、データマップ生成部43cは、入力されたパラメータセット(聴診した患者の聴診音データ)の正常率又は異常率を計算することができる。具体的には、正常判定である場合には、2次元の散布図において、入力したパラメータセットのプロットが、正常音集団の中心値(典型的には、平均値、重心値、中央値などを用いる。)からどの程度離れているかを計算する(典型的には、ユークリッド距離、マハラノビス距離などを用いる。)。正常音集団からの乖離度が小さいほど、正常率は高く算出される。
これに対して、異常判定である場合は、2次元の散布図において、入力されたパラメータセットのプロットが、異常音集団の中心値(典型的には、平均値、重心値、中央値などを用いる。)からどの程度離れているかを計算する(典型的には、ユークリッド距離、マハラノビス距離などを用いる。)。異常音集団からの乖離度が小さいほど、異常率は高く算出される。
なお、正常集団の中心値、異常集団の中心値は、xy座標で示される。以下、「正常集団(又は、異常集団)の中心値からの距離」を、説明の便宜上、単に「正常集団(又は、異常集団)からの距離」という場合もある。
以下、正常率、異常率の算出方法の一例について説明する。データマップ生成部43cによって、正常集団の中心値(xy座標)、及び、異常集団の中心値(xy座標)が予め算出されているものとする。まず、異常集団の中心値と正常集団の中心値との距離L1を求める。この距離は、典型的には、上述のユークリッド距離、又は、マハラノビス距離であり、好適には、マハラノビス距離である。以下、同様である。
次に、入力したパラメータセットのプロット(xy座標)と正常集団の中心値との距離L2を求める。
次に、L1に対するL2の比L2/L1を求める。単位はパーセントとする。このL2/L1×100を異常率ARとする。正常率NRは、同様の計算でも求まるが、NR=100−ARでもよい。
このようにして、入力したパラメータセットの異常率AR、正常率NRを算出することができる。なお、異常音の確率上昇係数RC=100/L1として、異常率AR=L2×RCとして計算してもよい。
これによって、本システムは、取得した聴診音を単純に二分類するだけでなく、正常又は異常のそれぞれの度合いまでを数値化することによって、より精密な判定を行う。
次に、聴診システム1000の動作例について説明する。図3は、聴診システム1000の動作例を示すフローチャートである。
まず、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300は、デジタル聴診器100から受信した聴診音と、該端末で入力した患者属性データと、を聴診音判定端末400に送信する。
次に、聴診音判定端末400は、下記のステップに従って、聴診音を処理する。
S101:データ前処理部42が、対象の聴診音データに対して、聴診音の周波数帯とは明らかに異なる周波数帯をカットする(ノイズカット)。例えば、聴診音が心音である場合には、0〜8000Hz以外をカットする。
S102:データ前処理部42が、対象の聴診音データのサンプリング周波数を同一(一般的には8000Hz)に設定する(初期設定)。また、サンプリング周波数における振幅の大きさに極端な差が生じている場合には、必要に応じて、振幅の調整を行う。
S103:(処理A)データ前処理部42が、N点ピーク検出アルゴリズムによって、サンプリング周波数における振幅のピーク点を検出し、N点までの範囲設定を行う。
S104:(処理B)特徴量計算部43aのウェーブレット変換部1が、処理Aで抽出した音源データに対してウェーブレット変換を行い、M個の特徴量を抽出する。ウェーブレット変換は、公知のスペクトル解析手法であるので、詳細な説明は省略する。簡潔に述べると、ウェーブレット変換部1は、対象の音源データに対して、時間変化させながら周波数解析を行い、それぞれの周波数要素が最大になった値を特徴量として出力する。
S105:(処理C)特徴量計算部43aのエントロピー算出部2が、処理Aで抽出した音源データに対してエントロピーの算出を行い、L個の特徴量を抽出する。エントロピーの算出は、公知のスペクトル解析手法であるので、詳細な説明は省略する。簡潔に述べると、エントロピー算出部2は、対象の音源データに対して、一括に周波数解析を行い、それぞれの周波数要素の値と全周波数要素の値の比率を特徴量として出力する。
S106:(処理D)ニューラルネットワーク部43b又はSVM判定部43dが、ウェーブレット変換部1が処理Bで抽出した特徴量を受け取る。そして、聴診音データの正常又は異常に分類可能に構成された学習モデルに、特徴量を入力する。
S107:(処理E)ニューラルネットワーク部43bが、エントロピー算出部2が処理Cで抽出した特徴量を受け取る。そして、聴診音データの正常又は異常を分類可能に構成された学習モデルに、特徴量を入力する。
S108:(処理F)データマップ生成部43cは、処理Dと処理Eによって分類された出力値を、データマップに変換する。具体的には、X軸をウェーブレット変換部1によって抽出された特徴量、Y軸をエントロピー算出部2によって抽出された特徴量、とする2次元の散布図を生成する。そして、該X軸と該Y軸に加えて、Z軸をサンプルの個数、とする3次元のデータマップに変換する。この2次元散布図および3次元データマップ内には、正常音集団、異常音集団の存在範囲を描画することができる。
最後に、データマップ生成部43cは、入力したパラメータセットの正常率又は異常率を算出し、データマップに付加して表示する。通信部40は、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300に、該データマップを送信する。そして、該端末の表示部が、該データマップを表示する。
図4は、聴診システム1000による判定結果(正常)及び正常率を、3次元のデータマップを用いて可視化した例を示す図である。本システムによって、入力した聴診音が正常判定され、入力した聴診音のプロットと正常音集団との距離(散布図におけるxy平面上の距離)に基づいて、正常率が表示されている。
図5は、聴診システム1000による判定結果(異常)及び異常率を、3次元のデータマップを用いて可視化した例を示す図である。本システムによって、入力した聴診音が異常判定され、入力した聴診音のプロットと異常音集団との距離(散布図におけるxy平面上の距離)に基づいて、異常率が表示されている。
なお、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300の表示部にデータマップを可視化する場合、図4に示す「判定結果(正常)及び正常率」、又は、図5に示す「判定結果(異常)及び異常率」のうちの少なくともいずれか一方のデータマップを表示することができる。
次に、本発明の異なる実施の形態について説明する。
<実施の形態2>
本実施の形態は、本システムが聴診音を解析して正常又は異常の判定を行うだけでなく、病名の判定までを行うことを特徴とする。ここでは、実施の形態1にかかる動作例のS101からS108のうち、本実施の形態と異なる部分を説明する。
実施の形態1にかかるS106とS107では、ニューラルネットワーク部43b又はSVM判定部43dは、聴診音データの正常又は異常を分類可能に構成された学習モデルを使用して分類を行った。
そして、S108において、データマップ生成部43cは、正常音集団又は異常音集団、あるいは正常率又は異常率を示すデータマップを生成した。
本実施の形態では、このとき、ニューラルネットワーク部43b又はSVM判定部43dは、特定の病気(典型的には心臓疾患)に固有の聴診音を識別する学習モデルを使用する。例えば、心臓弁膜症、虚血性心疾患、不整脈等に特有な聴診音の成分を識別することによって、それらの心臓疾患名を判定し、グルーピングする。かかる学習モデルは、学習フェーズにおいて、症例(疾病の種類等)を識別するためのラベルを学習用データセットに追加することにより生成できる。
そして、データマップ生成部43cは、ニューラルネットワーク部43b又はSVM判定部43dの出力値に基づいて、症例の分類結果を含むデータマップを生成する。具体的には、例えば、病名が不整脈であるならば、入力されたパラメータセットは、データマップ内の不整脈集団の中にプロットされ、該プロットと不整脈集団との距離(散布図におけるxy平面上の距離)に基づいて、不整脈率が表示される。
図6は、聴診システム1000による判定結果(病名判定)及び病名率を、3次元のデータマップを用いて可視化した例を示す図である。本システムによって、入力した聴診音が不整脈として判定され、入力した聴診音のプロットと不整脈集団との距離(散布図におけるxy平面上の距離)に基づいて、不整脈率が表示されている。なお、入力した聴診音のプロットと不整脈集団との距離、不整脈率は、上述した正常率、異常率と同様の手法で求めることができる。
さらに、本発明の異なる実施の形態について説明する。
<実施の形態3>
本実施の形態は、本システムが聴診音を解析して正常又は異常の判定を行うだけでなく、複数の判定結果をデータマップに時系列で表示することを特徴とする。ここでは、実施の形態1にかかる動作例のうち、本実施の形態と異なる部分を説明する。
実施の形態1にかかる動作例では、まず、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300は、デジタル聴診器100から受信した聴診音データと、聴診した患者に関する患者属性データと、を聴診音判定端末400に送信した。
本実施の形態では、このとき、現在デジタル聴診器100から受信した聴診音データと、聴診した患者に関する患者属性データと、ともに、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300の記憶部に格納されている、同一の患者についての、過去の聴診音データ、判定結果、及び聴診音を記録した日時や場所に関するデータ等を聴診音判定端末400に送信する。
なお、同一の患者についてのそれらのデータは、聴診音判定端末400、又はネットワーク500上に存在するサーバ等に格納されていてもよい。
そして、聴診音判定端末400は、現在の聴診音データを解析して正常又は異常の判定を行い、過去の聴診音データの判定結果とともに、複数の判定結果を時系列にプロットしたデータマップを生成する。
図7は、聴診システム1000による判定結果(時系列表示)を3次元のデータマップを用いて可視化した例を示す図である。本システムによって、3月5日現在の聴診音の判定結果と、3月2日に取得した聴診音の判定結果が、3次元のデータマップ上に同時に表示されている。
これによって、本システムのユーザは、患者の健康状態の時系列変化を直感的に確認することができる。
さらに、本発明の異なる実施の形態について説明する。
<実施の形態4>
以上、データマップの表示は、3次元を中心に説明してきたが、2次元の散布図によって表示してもよい。また、2次元表示と3次元表示とを、ユーザが適宜切替えることができるようにしてもよい。
例えば、図8は、ニューラルネットワーク部43b又はSVM判定部43dによる出力値であり、ウェーブレット変換部1によって抽出された特徴量と、エントロピー算出部2によって抽出された特徴量と、の分布を示した2次元の散布図である。
図8は、特徴量の表示数が多いので、ユーザにとって分かりにくい場合がある。そこで、特徴量を、ニューラルネットワーク部43b又はSVM判定部43dによって正常又は異常に分類した上で、さらに少なくとも一つ以上のグループにグルーピングして、表示してもよい。
具体的には、ニューラルネットワーク部43b又はSVM判定部43dに所定の閾値THを設定し、一定の座標範囲に一定のプロット数が存在するならば、それらのプロット集団を一つのグループとして定義する。グループ数は、必要に応じて適宜変更される。例えば、図9では、図8の正常音集団を3つのグループ(NG1〜NG3)に、図8の異常音集団を4つのグループ(AG1〜AG4)に、それぞれグルーピングした例を示している。
また、図8及び図9では、SVM判定部43dが算出した閾値(一次式)THとマージン幅MWが示されている。ここで閾値THは一次式に限定されず、所定の線形又は非線形であっても良い。閾値THが線形であれば、聴診音可視化端末(診察用)200、聴診音可視化端末(教育用)300等の表示部に、図8及び図9に示すような閾値TH及びマージン幅をMW表示してもよい。このグルーピングの技術思想は、当然、上述した3次元表示のデータマップにも適用される。
本システムにおいては、少なくとも、2次元表示、または、3次元表示のいずれか一方が表示されるように選択する手段が設けられている。例えば、聴診音可視化端末(診察用)200、聴診音可視化端末(教育用)300等の表示部によって表示される操作画面に切替タブを設け、ユーザが2次元表示、または、3次元表示のいずれか一方が表示されるように選択するように構成してもよい。
さらに、本発明の異なる実施の形態について説明する。
<実施の形態5>
本実施の形態は、本システムがデジタル聴診器100によって聴診音を取得する際に、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300の出力部に、適切な位置に聴診部を当てるためのガイド及びマーカーを表示することを特徴とする。
図10は、患者の顎や肩の位置を示すガイド、及び、適切な聴診部の位置を示すマーカーの表示例を示す図である。
まず、胸部を聴診する場合、一般的には、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300のインカメラを用いて、患者自身が自分の胸部を映し出しながら、デジタル聴診器100の聴診部を当てる。
このとき、該端末に映し出された胸部には、顎と左右の肩の位置を示すガイドが表示される。それに合わせて、患者自身は自分の顎と左右の肩の位置を調整する。
また、胸部には、聴診部を当てるべき適切な位置にマーカーが表示されている。それに合わせて、患者自身はデジタル聴診器100の聴診部の位置を調整する。
次に、背部を聴診する場合、一般的には、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300のバックカメラを用いて、第三者が患者の背部を映し出しながら、デジタル聴診器100の聴診部を当てる。
このとき、胸部の聴診と同様に、顎と左右の肩の位置を示すガイド、及び、聴診部を当てるべき適切な位置にマーカーが表示されるので、第三者はそれに合わせて位置を調整する。
具体的には、性別や年齢毎に、顎、肩等の位置のひな型を用意しておき、ひな型に応じて、ガイド及びマーカーの座標位置を指定することにより、画面上にガイド及びマーカーを表示することができる。
これによって、聴診部の位置の微妙なズレによって生じる聴診音データの誤差を軽減し、医学的知識を持たない人でも、聴診音データを正しく取得することできる。また、本システムを、体温計や血圧計と同じ感覚で日々手軽に利用することができ、各家庭での健康管理に役立てることができる。
以上の通り、本発明の実施の形態について説明したが、聴診システム及び聴診方法1000の具体的な構成は、上述した実施に形態に限られるものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。本発明の範囲内で、実施の形態の任意の構成要素を均等物により置換したり、省略したりすることができる。また、発明の趣旨を損なわない範囲で、任意の処理を置換、省略し、又は順序を入れ替えて実行することができる。
例えば、聴診音可視化端末(診察用)200、又は聴診音可視化端末(教育用)300は、次のような付加機能を備えていてもよい。
(参考数値表示機能)
データマップに、正常率・異常率の表示に加えて、患者の聴診音に関わるデータの最高値、最低値、平均値等を参考数値として表示する。これによって、例えば、取得された聴診音が異常判定された場合に、それが患者自身の身体特性によるものなのか、普段とは異なる状態を示唆するものなのか、を判断する材料にすることができる。
(アラート機能)
患者の聴診音に関わるデータの最高値、最低値、平均値等を保存しておき、その値と、現在取得された聴診音の判定結果にかかる値と、が極端に異なる場合に、医療機関に受診するように促すアラート、又は、再度の聴診(ノイズの影響が想定されるため)を促すアラートを表示する。
(聴診音データ提供機能)
取得した聴診音データ、判定結果、及び聴診音を記録した日時や場所に関するデータ等を、他のシステムで再生・表示可能なファイル形式に変換し、医療機関等に提供する。これによって、電子カルテにデータ一式を添付することができ、遠隔での診療に用いることが可能になる。
(聴診音再生機能)
データマップ上の任意のプロットにかかる聴診音データ又はベクトル音波図等を再生・表示する。これによって、場所や時間を選ばずに、正常音集団及び異常音集団の聴診音データ等を手軽に再生・表示できるので、学生等が分類された聴診音の特徴を学習するのに役立つ。
(聴診技術習得用テスト機能)
データマップにプロットされている症例別の聴診音又はベクトル音波図を利用して、再生した聴診音が何の症例かを自己テストする。また、医学教育の現場で、学生等が取得する聴診音を、本システムによって教員・学生間で共有し、定量的な分析を行うことによって、聴診技術の習熟度を向上させる。
100 デジタル聴診器
200 聴診音可視化端末(診察用)
300 聴診音可視化端末(教育用)
400 聴診音判定端末
40 通信部
41 記憶部
42 データ前処理部
43 機械学習部
43a 特徴量算出部
1 ウェーブレット変換部
2 エントロピー算出部
43b ニューラルネットワーク部
43c データマップ生成部
43d SVM判定部
500 ネットワーク
1000 聴診システム及び聴診方法
L1 異常集団の中心値と正常集団の中心値との距離
L2 入力したパラメータセットのプロット(xy座標)と正常集団の中心値(xy座標)との距離
AR 異常率
NR 正常率
RC 異常音の確率上昇係数
TH 閾値
MW マージン幅
NG1〜NG3 グルーピングされた正常集団のグループ
AG1〜AG4 グルーピングされた異常集団のグループ

Claims (8)

  1. デジタル聴診器により取得された聴診音データから複数の特徴量を抽出する特徴量計算部と、
    前記特徴量を入力して、正常又は異常に分類する学習モデルと、
    前記聴診音データを、前記特徴量と、前記学習モデルによる分類結果と、に基づいてマッピングしたデータマップを生成するデータマップ生成部と、を含む
    聴診システム。
  2. 前記学習モデルは、前記特徴量を入力して、正常又は異常の別と、症例と、を判定するものであり、
    前記データマップ生成部は、前記聴診音データを、前記特徴量と、前記学習モデルによる分類結果と、に基づいてマッピングしたデータマップを生成する
    請求項1記載の聴診システム。
  3. 前記データマップ生成部は、前記聴診音データの正常率又は異常率を計算し、前記データマップに少なくとも前記正常率又は前記異常率のいずれか一方を表示する
    請求項1記載の聴診システム。
  4. 前記正常率又は異常率は、正常音集団又は異常音集団の中心値と、前記特徴量と、の距離に基づいて計算される
    請求項3記載の聴診システム。
  5. 前記データマップ生成部は、前記聴診音データの症例率を計算し、前記データマップに表示する
    請求項2記載の聴診システム。
  6. 前記聴診音データに対し、ノイズ処理、周波数調整または振幅調整を行うデータ前処理部をさらに含む
    請求項1記載の聴診システム。
  7. 少なくとも2次元の散布図、又は、3次元のデータマップのいずれか一方の表示が選択可能に構成されていることを特徴とする請求項1乃至請求項6のいずれか1項に記載の聴診システム。
  8. コンピュータが、
    デジタル聴診器により取得された聴診音データから複数の特徴量を抽出する特徴量計算ステップと、
    学習モデルに前記特徴量を入力して、正常又は異常に分類する分類ステップと、
    前記聴診音データを、前記特徴量と、前記学習モデルによる分類結果と、に基づいてマッピングしたデータマップを生成するデータマップ生成ステップと、を含む
    聴診方法。

JP2020032789A 2020-02-28 2020-02-28 聴診システム及び聴診方法 Pending JP2021133005A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020032789A JP2021133005A (ja) 2020-02-28 2020-02-28 聴診システム及び聴診方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020032789A JP2021133005A (ja) 2020-02-28 2020-02-28 聴診システム及び聴診方法

Publications (1)

Publication Number Publication Date
JP2021133005A true JP2021133005A (ja) 2021-09-13

Family

ID=77662480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020032789A Pending JP2021133005A (ja) 2020-02-28 2020-02-28 聴診システム及び聴診方法

Country Status (1)

Country Link
JP (1) JP2021133005A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102502620B1 (ko) * 2022-07-22 2023-02-24 스마트사운드주식회사 인공지능을 이용한 질병 분류 방법 및 이를 위한 전자 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05309074A (ja) * 1992-03-13 1993-11-22 Nippon Koden Corp 心音解析装置
US20080221395A1 (en) * 2006-12-28 2008-09-11 Potts Steven J Self-organizing maps in clinical diagnostics
JP2009240527A (ja) * 2008-03-31 2009-10-22 Yamaguchi Univ 心音周波数解析装置及び方法
US20110021939A1 (en) * 2008-02-06 2011-01-27 Sepehri Amir A Method and Device for the Determination of Murmur Frequency Band
JP2014008263A (ja) * 2012-06-29 2014-01-20 Univ Of Yamanashi シャント狭窄診断支援システムおよび方法,アレイ状採音センサ装置,ならびに逐次細分化自己組織化マップ作成装置,方法およびプログラム
JP2015031889A (ja) * 2013-08-05 2015-02-16 株式会社半導体理工学研究センター 音響信号分離装置、音響信号分離方法及び音響信号分離プログラム
US20170071565A1 (en) * 2014-05-12 2017-03-16 Electrosalus Biyomedikal San. Ve Tic. A.S. Auscultation data acquisition, communication and evaluation system incorporating mobile facilities

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05309074A (ja) * 1992-03-13 1993-11-22 Nippon Koden Corp 心音解析装置
US20080221395A1 (en) * 2006-12-28 2008-09-11 Potts Steven J Self-organizing maps in clinical diagnostics
US20110021939A1 (en) * 2008-02-06 2011-01-27 Sepehri Amir A Method and Device for the Determination of Murmur Frequency Band
JP2009240527A (ja) * 2008-03-31 2009-10-22 Yamaguchi Univ 心音周波数解析装置及び方法
JP2014008263A (ja) * 2012-06-29 2014-01-20 Univ Of Yamanashi シャント狭窄診断支援システムおよび方法,アレイ状採音センサ装置,ならびに逐次細分化自己組織化マップ作成装置,方法およびプログラム
JP2015031889A (ja) * 2013-08-05 2015-02-16 株式会社半導体理工学研究センター 音響信号分離装置、音響信号分離方法及び音響信号分離プログラム
US20170071565A1 (en) * 2014-05-12 2017-03-16 Electrosalus Biyomedikal San. Ve Tic. A.S. Auscultation data acquisition, communication and evaluation system incorporating mobile facilities

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102502620B1 (ko) * 2022-07-22 2023-02-24 스마트사운드주식회사 인공지능을 이용한 질병 분류 방법 및 이를 위한 전자 장치
US11937971B2 (en) 2022-07-22 2024-03-26 Smartsound Corporation Method for classifying disease using artificial intelligence and electronic apparatus therefor
JP7468948B2 (ja) 2022-07-22 2024-04-16 スマートサウンド・コーポレイション 人工知能を用いた疾病分類方法およびそのための電子装置

Similar Documents

Publication Publication Date Title
Pandya et al. InfusedHeart: A novel knowledge-infused learning framework for diagnosis of cardiovascular events
US20210145306A1 (en) Managing respiratory conditions based on sounds of the respiratory system
KR101969540B1 (ko) 인지 기능 재활 훈련 방법 및 장치
JP6013438B2 (ja) 脳疾患診断支援システム、脳疾患診断支援方法及びプログラム
Yuenyong et al. A framework for automatic heart sound analysis without segmentation
Rehg et al. Mobile health
KR20200005987A (ko) 터치입력을 이용한 인지장애 진단 시스템 및 방법
CN107438399A (zh) 心血管恶化预警评分
JP2012120688A (ja) 呼吸状態分析装置、呼吸状態表示装置およびそれらにおける処理方法ならびにプログラム
Grønnesby et al. Feature extraction for machine learning based crackle detection in lung sounds from a health survey
KR20190058858A (ko) 스마트장치를 이용한 심혈관 질환의 진단정보 제공방법 및 이를 위한 심음 애플리케이션
WO2020121308A9 (en) Systems and methods for diagnosing a stroke condition
CN109313931A (zh) 用于提供与医学检查有关的反馈的***、方法和计算机程序产品
WO2021146368A1 (en) Artificial intelligence-based platform to optimize skill training and performance
US20180098738A1 (en) Brain connectivity analysis system and brain connectivity analysis method
JP2021133005A (ja) 聴診システム及び聴診方法
McDougall et al. Searching for meaning in sound: Learning and interpreting alarm signals in visual environments.
Cheng et al. Assessing the accuracy of artificial intelligence enabled acoustic analytic technology on breath sounds in children
KR20210009668A (ko) 건강검진 결과지 생성 시스템
Narváez et al. Classification of heart sounds using linear prediction coefficients and mel-frequency cepstral coefficients as acoustic features
Andersen et al. Interrater and intrarater agreement on heart murmurs
Rao et al. Emotional stress recognition system using EEG and psychophysiological signals
Kidane et al. Orientation invariant ECG-based stethoscope tracking for heart auscultation training on augmented standardized patients
Benmussa et al. Generating Alerts from Breathing Pattern Outliers
KR102624676B1 (ko) 스마트폰으로 수집한 기침음, 호흡음, 성음 측정 데이터를 이용한 호흡기 질환 예측 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200409

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528