JP7454679B2 - マルチモーダルデータに基づく両眼円錐角膜の評価システム - Google Patents

マルチモーダルデータに基づく両眼円錐角膜の評価システム Download PDF

Info

Publication number
JP7454679B2
JP7454679B2 JP2022541624A JP2022541624A JP7454679B2 JP 7454679 B2 JP7454679 B2 JP 7454679B2 JP 2022541624 A JP2022541624 A JP 2022541624A JP 2022541624 A JP2022541624 A JP 2022541624A JP 7454679 B2 JP7454679 B2 JP 7454679B2
Authority
JP
Japan
Prior art keywords
data
corneal
unit
height
posterior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022541624A
Other languages
English (en)
Other versions
JP2023540651A (ja
Inventor
陽 沈
行涛 周
慧傑 李
崇陽 王
文光 陳
▲せい▼ 趙
美燕 李
芸勇 ▲セン▼
海鵬 徐
凌凌 牛
武校 趙
田 韓
Original Assignee
上海美沃精密儀器股▲フン▼有限公司
復旦大学附属眼耳鼻喉科医院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 上海美沃精密儀器股▲フン▼有限公司, 復旦大学附属眼耳鼻喉科医院 filed Critical 上海美沃精密儀器股▲フン▼有限公司
Publication of JP2023540651A publication Critical patent/JP2023540651A/ja
Application granted granted Critical
Publication of JP7454679B2 publication Critical patent/JP7454679B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/107Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining the shape or measuring the curvature of the cornea
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Description

本発明は、眼科データ検査技術に関し、特にマルチモーダルデータに基づく両眼円錐角膜検査方法に関する。
人間の目の円錐角膜は、角膜が拡張し、角膜の中央が薄くなって前方に突出し、円錐形を呈するという特徴がある臨床眼科疾患である。このような疾患は、屈折矯正手術の禁忌であり、単眼又は両眼に発生し、かつ一般的に視力の著しい低下をもたらす。円錐角膜は、角膜の後面で最初に発病し、さらに角膜の前面に徐々に発展することが多い。
現在の円錐角膜の検査及び治療は、既に角膜病学、屈折矯正手術学、検眼学等が密接に協力する臨床疾患学に発展している。一般的に角膜トポグラフィーに基づいて円錐角膜検査を行う方法は、臨床統計学的方法であり、角膜トポグラフィーの形態的特徴を利用して臨床パラメータ及び病歴に合わせて円錐角膜の検査及び臨床病期の分類を行うことが多い。統計学のモデルで取得された結果は、サマリーパラメータであり、かつ既知の検査結果データセットに基づいてパラメータ境界線が取得され、例えば、広く応用されるKISA指数、IS指数、SRI/SAI指数等である。このような方法は、プラットフォームデータに制限されることが多く、人為的に認められた有限個の単眼特徴に過度に依存し、両眼の間の相互関係を無視し、かつ異なる指数における感受性及び特異性が異なり、早期円錐角膜と不完全型円錐角膜に良好な判断を与えることができない。
本発明は、両眼円錐角膜の早期検査の問題に対して、マルチモーダルデータに基づく両眼円錐角膜の検査方法を提供する。マルチモーダル屈折トポグラフィーのマトリックスデータに基づいて、畳み込みニューラルネットワーク法、固有値SVM法、両眼対比法及び調整可能なBFSの増幅トポグラフィー法を組み合わせて、両眼の総合円錐角膜の検査結果を与え、特に早期の後円錐角膜及び不完全型円錐角膜のスクリーニング及び検査に対してより高いロバスト性及び正確性を有する。
本発明の技術手段は、以下のとおりである。マルチモーダルデータに基づく両眼円錐角膜の検査方法は、具体的には、
両眼マルチモーダルデータを収集するステップであって、データは、両眼角膜の4屈折マップ及び角膜絶対高さデータを含み、角膜の4屈折マップは、角膜前面の軸方向曲率、角膜前面の相対高さトポグラフィー、角膜後面の相対高さトポグラフィー及び角膜厚さトポグラフィーを含み、角膜絶対高さデータは、角膜前後面の絶対高さデータを含むステップ1)と、
分類された症例に基づいて、両眼マルチモーダルデータを分類された種類と関連付け、要求に応じてデータ分類を行うステップ2)と、
ステップ2)の4屈折マップにおける各トポグラフィーデータ及び角膜前後面の高さデータを同じサイズのデータマトリックスに統一するステップ3)と、
以上のデータに基づいて4つの分岐方法でそれぞれ両眼早期円錐角膜を判断するステップであって、4つの分岐方法は、それぞれ分岐方法A、分岐方法B、分岐方法C及び分岐方法Dであり、
分岐方法Aは、全ての4屈折マップデータマトリックスをデータ処理した後に深度畳み込みネットワークの分類ネットワークに送信して円錐角膜の感受性及び特異性を識別し、ある症例を取得し、当該ある症例に対して分類結果P(A)を出力し、
分岐方法Bは、全ての4屈折マップデータマトリックスにおける各マップデータマトリックスに対して固有値計算を行い、固有値データをSVMサポートベクターマシン二分類方法に送信し、円錐角膜の感受性及び特異性を識別し、ある症例を取得し、当該ある症例に対して分類結果P(B)を出力し、
分岐方法Cは、角膜前後面の絶対高さデータを最適フィッティング球面データと比較し、円錐角膜症例と正常症例の臨界閾値を取得することにより、ある症例を判定し、当該ある症例に対して分類結果P(C)を出力し、
分岐方法Dは、左右眼の4屈折マップデータマトリックスの平均値、最大値、標準偏差を特徴量とし、臨界閾値を利用するか、又はSVM分類方法を用いて、最適な感受性及び特異性、及びある症例の両眼に円錐角膜が発生する確率P(D)を取得するステップ4)と、
分岐方法A、B、C、Dにおける最後の結果を重み付け加算することにより、ある症例の両眼に円錐角膜が発生する最終的な確率を取得するステップ5)と、を含む。
好ましくは、前記分岐方法Aは、具体的には、
データをスケーリングするステップであって、ステップ3)で処理された全ての4屈折マップデータマトリックスを線形補間の方法で224×224のサイズにスケーリングするステップA-1と、
データを正規化するステップであって、ステップA-1のデータを7:3の比率に応じてトレーニングセットと検証セットに分け、次にトレーニングセットでそれぞれ4屈折マップデータマトリックスの平均値と標準偏差を計算し、それに応じて4つの平均値と4つの標準偏差を取得して、全ての症例の4屈折マップデータマトリックスを平均値と標準偏差で正規化するステップA-2と、
深度畳み込みネットワークの分類ネットワーク設計に基づいて、Resnet50分類ネットワークを用いて4屈折マップデータマトリックスに二分類を行うことにより、単眼の正常角膜及び円錐角膜を識別するステップA-3と、
分類モデルをトレーニングするステップであって、4屈折マップデータマトリックスをチャネルに応じて接続して、4チャネルの入力を取得し、データ増幅は、回転、平行移動、ランダムファジー前処理を採用し、損失関数は、二分類の交差エントロピー関数を採用し、MobileNetV3のIMAGENETデータセットでのトレーニング重み値を初期重み値とし、次に微調整トレーニングを行い、最終的にトレーニングセットと検証セットのloss値の差が最小のトレーニング重み値をトレーニング結果として選択するステップA-4と、
モデル指標を評価するステップであって、検証セットで予測を行い、次に真値と比較評価して、最後に当該分岐方法Aで円錐角膜の感受性及び特異性を識別し、取得するステップA-5と、
結果を出力するステップであって、ステップA-5でのトレーニングセットに対するテストの感受性及び特異性が要求に達すると、本分岐方法Aで取得されたある症例の両眼に円錐角膜が発生する確率をそれぞれp(Al)及びp(Ar)として記録し、分類結果P(A)=p(Al)(p(Al)>p(Ar))、p(Ar)(p(Al)<p(Ar))を出力するステップA-6と、を実現する。
好ましくは、前記分岐方法Bは、具体的には、
角膜前面の軸方向曲率の固有値を計算するステップであって、角膜前面の軸方向曲率データマトリックスにおいて曲率の最大最小値点及び位置座標を計算し、直径6mm位置における上下屈折力差IS値を計算し、直径が4.5mmの範囲内の表面不規則性SRI値、表面非対称性SAI値を計算するステップB-1と、
角膜前面の相対高さの固有値を計算するステップであって、角膜前面の相対高さデータマトリックスにおいて高さの最大値及び位置座標を計算するステップB-2と、
角膜後面の相対高さの固有値を計算するステップであって、角膜後面の相対高さデータマトリックスにおいて高さの最大値及び位置座標を計算するステップB-3と、
角膜厚さの固有値を計算するステップであって、角膜厚さデータマトリックスにおいて厚さの最小値及び位置座標を計算し、角膜頂点での厚さを計算するステップB-4と、
距離の固有値を計算するステップであって、ステップB-2における角膜前面の高さの最大値位置とステップB-3における角膜後面の高さの最大値位置との間の距離を計算し、ステップB-2における角膜前面の高さの最大値位置とステップB-4における角膜厚さの最小値位置との間の距離を計算し、ステップB-3における角膜後面の高さの最大値位置とステップB-4における角膜厚さの最小値位置との間の距離を計算するステップB-5と、
角膜体積の固有値を計算するステップであって、角膜厚さデータマトリックスを半径が4.5mmの範囲内で体積積分して角膜体積を取得するステップB-6と、
ステップB-1からステップB-6までの全ての固有値に正規化処理を行い、かつ全ての正規化された症例データの固有値を7:3の比率に応じてトレーニングセットと検証セットに分けるステップB-7と、
SVMサポートベクターマシン二分類方法を用いてステップB-7で正規化されたトレーニングセットの特徴データに特徴トレーニングを行い、特徴トレーニング中にRBF kernelを選択し、cross-validation及びgrid-searchを用いて最適なc及びgを取得してデータをトレーニングするステップB-8と、
モデル指標を評価するステップであって、検証セットで予測を行い、次に真値と比較評価して、最後に当該分岐方法で円錐角膜の感受性及び特異性を識別するステップB-9と、
結果を出力するステップであって、ステップB-9でのトレーニングセットに対するテストの感受性及び特異性が要求に達すると、本分岐方法Bで取得されたある症例の両眼に円錐角膜が発生する確率をそれぞれp(Bl)及びp(Br)として記録し、分類結果P(B)=p(Bl)(p(Bl)>p(Br))、p(Br)(p(Bl)<p(Br))を出力するステップB-10と、を実現する。
好ましくは、前記分岐方法Cは、具体的には、
角膜前面の標準的相対高さデータを取得するステップであって、角膜前後面の絶対高さデータに対して、角膜前面の直径が8mmの範囲内の絶対高さデータで球面フィッティングを行い、BFS値を取得して、角膜前面データと取得された最適フィッティング球面との間の高さ差を角膜前面の標準的相対高さデータとするステップC-1と、
角膜前面の特徴的高さデータを取得するステップであって、角膜前後面の絶対高さデータに対して、角膜前面の直径が8mmの範囲内の絶対高さデータを基準とし、最薄点位置の半径2mm範囲内のデータを除去して球面フィッティングを行い、BFS値を取得して、現在のBFSを基準とし、0.2mmをステップサイズとし、上下へそれぞれ5組オフセットして11組の異なるBFS値を取得して、角膜前面データと取得された異なるBFS最適フィッティング球面との間の高さ差を角膜前面の特徴的相対高さデータとするステップC-2と、
角膜前面の増幅高さデータを取得するステップであって、ステップC-2で取得された標準的相対高さデータとステップC-3で取得された11組の特徴的相対高さデータを差分して、11組の角膜前面増幅データを取得するステップC-3と、
角膜後面の標準的相対高さデータを取得するステップであって、角膜前後面の絶対高さデータに対して、角膜後面の直径が8mmの範囲内の絶対高さデータで球面フィッティングを行い、BFS値を取得して、角膜後面データと取得された最適フィッティング球面との間の高さ差を角膜後面の標準的相対高さデータとするステップC-4と、
角膜後面の特徴的高さデータを取得するステップであって、角膜前後面の絶対高さデータに対して、角膜後面の直径が8mmの範囲内の絶対高さデータを基準とし、最薄点位置の半径2mm範囲内のデータを除去して球面フィッティングを行い、BFS値を取得し、現在のBFSを基準とし、0.2mmをステップサイズとし、上下へそれぞれ5組オフセットして11組の異なるBFS値を取得し、角膜後面データと取得された異なるBFS最適フィッティング球面との間の高さ差を角膜後面の特徴的相対高さデータとするステップC-5と、
角膜後面の増幅高さデータを取得するステップであって、ステップC-4で取得された角膜後面の標準的相対高さデータとステップC-5で取得された11組の特徴的相対高さデータを差分して、11組の角膜後面増幅データを取得するステップC-6と、
ステップC-3及びC-6で合計して取得された22組の角膜前後面の増幅データマトリックスを特徴とし、全てのサンプルデータを組み合わせて各組のデータの円錐角膜症例と正常症例の臨界閾値を統計するステップC-7と、
本分岐方法Cで取得されたある症例の両眼に円錐角膜が発生する確率をそれぞれp(Cl)とp(Cr)として記録するステップであって、p(Cl)とp(Cr)は、いずれも現在の症例に基づいて計算された各組の増幅データとステップC-7で取得された臨界閾値との間の差分値を重み比率として加算して取得され、分類結果P(C)=p(Cl)(p(Cl)>p(Cr))、p(Cr)(p(Cl)<p(Cr))を出力するステップC-8と、を実現する。
好ましくは、前記分岐方法Dは、具体的には、
データ方位を統一するステップであって、右眼の4屈折マップデータマトリックスを縦列方向に沿って鏡像し、左右眼の4屈折マップデータマトリクスの鼻側及び側頭側の方位を統一するステップD-1と、
4屈折マップdiffグラフマトリックスを取得するステップであって、それぞれ左右眼の4屈折マップデータマトリックスに対してポイントツーポイント差分を行った後に絶対値を取得し、4屈折マップdiffグラフデータマトリックスを取得するステップD-2と、
diffデータ特徴を計算するステップであって、直径が6mmのデータ範囲内の4屈折マップdiffグラフデータマトリックスにおける全てのデータの平均値、最大値、標準偏差をそれぞれ計算して特徴量とするステップD-3と、
ステップD-3で取得された12組の左右眼角膜の4屈折マップdiffグラフの平均値、最大値、標準偏差を特徴とし、全てのサンプルデータを組み合わせて各組のデータの円錐角膜症例と正常症例の臨界閾値を統計するか、又はSVM分類方法を採用し、全てのタイプのdiffデータの特徴に正規化トレーニングとテストを行い、最適な感受性及び特異性を与えるステップD-4と、
本分岐方法で取得されたある症例の両眼に円錐角膜が発生する確率をそれぞれP(D)として記録するステップであって、P(D)は、現在の症例に基づいて計算された各組のdiffデータ固有値とステップD-4で取得された臨界閾値との間の差分値を重み比率として加算して取得されるステップD-5と、を実現する。
本発明の有益な効果は、以下のとおりである。本発明に係るマルチモーダルデータに基づく両眼円錐角膜の検査方法によれば、両眼の間の相互関係を考慮し、深度畳み込みネットワーク方法、従来の機械学習svm方法及び調整可能なBSFの高さマップ増幅方法に基づいた病巣の感受性及び特異性の識別を組み合わせて、その感受性及び特異性のバランスを取り、多次元で患者を単位とする円錐角膜の発病率を総合的に判断する。両眼データに合わせて人工選択特徴を含むだけでなく、深度ネットワーク自体がビッグデータから学習する特徴も含むから、検査方法は、より強いロバスト性及び正確性を有する。
本発明に係るマルチモーダルデータに基づく両眼円錐角膜の検査方法のフローチャートである。 角膜の4屈折マップである。 角膜前後面の絶対高さマップである。 本発明に係る方法における分類ネットワークの構造図である。 左右眼角膜の4屈折マップDiffグラフである。
以下、図面及び具体的な実施例を参照しながら本発明を詳細に説明する。本実施例は、本発明の技術的解決手段を前提として実施され、詳細な実施形態及び具体的な操作過程を提供するが、本発明の保護範囲は、下記実施例に限定されない。
図1に示すマルチモーダルデータに基づく両眼円錐角膜の検査方法のフローチャートは、具体的には、以下のステップ1~5を含む。
ステップ1では、両眼マルチモーダルデータを収集する。データは、両眼角膜の4屈折マップ及び角膜絶対高さデータを含み、前眼部三次元解析装置、又は前眼部OCT測定装置により4屈折マップを取得する。図2に示すように、角膜の4屈折マップは、角膜前面の軸方向曲率、角膜前面の相対高さトポグラフィー、角膜後面の相対高さトポグラフィー及び角膜厚さトポグラフィーを含み、図3に示すとおり、角膜絶対高さデータは、角膜前後面の絶対高さデータを含む。
ステップ2では、分類された症例に基づいて、両眼マルチモーダルデータを分類された種類と関連付ける。分類数は、具体的な需要に依存し、例えば、円錐角膜及び正常角膜に二分類する。
ステップ3では、角膜の4屈折マップ及び色対応コードに基づいて、0.02mmをデータステップサイズとしてトポグラフィー(4屈折マップにおける4枚のマップは、いずれもトポグラフィーと呼ばれる)の直径9mm範囲内の二次元フルサンプリングデータマトリクスを取得する。各トポグラフィーデータ及び角膜前後面の高さデータマトリックスのサイズは451×451である。
ステップ4では、以上のデータに基づいて4つの分岐方法でそれぞれ両眼早期円錐角膜を判断する。4つの分岐方法は、それぞれ分岐方法A、分岐方法B、分岐方法C及び分岐方法Dである。
分岐方法A:当該分岐方法は、単一の症例を基準とする。全ての4屈折マップマトリックスにおける各データは、いずれも計算に関与し、円錐角膜判定に影響を与える可能性のある全ての要因を最大限に保持する。機械の自己学習により大量データから病変を判定するという目的を達成する。これにより、人為的、かつ主観的な特徴選択に依存せず、病巣識別の特異性を強化することができる。
ステップA-1では、データをスケーリングする。ステップ3で処理された全ての4屈折マップデータマトリックスを線形補間の方法で224×224のサイズにスケーリングする。
ステップA-2では、データを正規化する。ステップA-1のデータを7:3の比率に応じてトレーニングセットと検証セットに分ける。次にトレーニングセットでそれぞれ4屈折マップデータマトリックスの平均値と標準偏差を計算し、それに応じて4つの平均値と4つの標準偏差を取得する。全ての症例の4屈折マップデータマトリックスを平均値と標準偏差で正規化する。
ステップA-3では、深度畳み込みネットワークの分類ネットワーク設計に基づいて、Resnet50分類ネットワークを用いて4屈折マップデータマトリックスに二分類を行うことにより、単眼の正常角膜及び円錐角膜を識別する。構築されたResnet50分類ネットワークモデルは、バックボーンネットワークが不変で、一番目の畳み込み層のチャネル入力を4に修正し、最後に全接続層を出力する出力数を2に修正し、ネットワーク構造を図4に示す。
ステップA-4では、分類モデルをトレーニングする。4屈折マップデータマトリックスをチャネルに応じて接続して、4チャネルの入力を取得する。データ増幅は、回転、平行移動、ランダムファジー前処理等を採用する。損失関数は、二分類の交差エントロピー関数を採用する。MobileNetV3のIMAGENETデータセットでのトレーニング重み値を初期重み値とし、次に微調整トレーニングを行う。60回の反復トレーニングを行い、初期学習率が0.01であり、20回目で、40回目でそれぞれ学習率を10倍低下させる。最終的にトレーニングセットと検証セットのloss値の差が最小のトレーニング重み値をトレーニング結果として選択する。
ステップA-5では、モデル指標を評価し、検証セットで予測を行い、次に真値と比較評価して、最後に当該分岐方法Aで円錐角膜の感受性及び特異性を識別する。
ステップA-6では、結果を出力する。ステップA-5でのトレーニングセットに対するテストの感受性及び特異性が要求に達すると、本分岐方法Aで取得されたある症例の両眼に円錐角膜が発生する確率をそれぞれp(Al)及びp(Ar)として記録する。分類結果P(A)=p(Al)、(p(Al)>p(Ar));p(Ar)、(p(Al)<p(Ar))を出力する。
分岐方法B:当該分岐方法は、単一の症例を基準とし、人工定義により病変の特徴を直接反映することができ、その後にモニタリング学習方法SVMを用いて、病変したか否かの分類を実現する。小サンプルデータを用いても効率性と感受性が保証される。
ステップB-1では、角膜前面の軸方向曲率の固有値を計算する。角膜前面の軸方向曲率データマトリックスにおいて曲率の最大最小値点及び位置座標を計算し、直径6mm位置における上下屈折力差IS値を計算し、直径が4.5mmの範囲内の表面不規則性SRI値、表面非対称性SAI値を計算する。
ステップB-2では、角膜前面の相対高さの固有値を計算し、角膜前面の相対高さデータマトリックスにおいて高さの最大値及び位置座標を計算する。
ステップB-3では、角膜後面の相対高さの固有値を計算し、角膜後面の相対高さデータマトリックスにおいて高さの最大値及び位置座標を計算する。
ステップB-4では、角膜厚さの固有値を計算し、角膜厚さデータマトリックスにおいて厚さの最小値及び位置座標を計算し、角膜頂点での厚さを計算する。
ステップB-5では、距離の固有値を計算し、ステップB-2における角膜前面の高さの最大値位置とステップB-3における角膜後面の高さの最大値位置との間の距離を計算し、ステップB-2における角膜前面の高さの最大値位置とステップB-4における角膜厚さの最小値位置との間の距離を計算し、ステップB-3における角膜後面の高さの最大値位置とステップB-4における角膜厚さの最小値位置との間の距離を計算する。
ステップB-6では、角膜体積の固有値を計算し、角膜厚さデータマトリックスを半径が4.5mmの範囲内で体積積分して角膜体積を取得する。
ステップB-7では、ステップB-1からステップB-6までの全ての固有値に正規化処理を行い、かつ全ての正規化された症例データの固有値を7:3の比率に応じてトレーニングセットと検証セットに分ける。
ステップB-8では、SVMサポートベクターモデルをトレーニングし、SVMサポートベクターマシン二分類方法を用いてステップB-7で正規化されたトレーニングセットの特徴データに特徴トレーニングを行い、特徴トレーニング中にRBF kernel(動径基底関数カーネル)を選択し、cross-validation(交差検証)及びgrid-search(グリッド検索)を用いて最適なc及びgを取得してデータをトレーニングする。
ステップB-9では、モデル指標を評価し、検証セットで予測を行い、次に真値と比較評価して、最後に当該分岐方法で円錐角膜の感受性及び特異性を識別する。
ステップB-10では、結果を出力し、ステップB-9でのトレーニングセットに対するテストの感受性及び特異性が要求に達すると、本分岐方法Bで取得されたある症例の両眼に円錐角膜が発生する確率をそれぞれp(Bl)及びp(Br)として記録する。分類結果P(B)=p(Bl)(p(Bl)>p(Br))、p(Br)(p(Bl)<p(Br))を出力する。
分岐方法C:当該分岐方法は、単一の症例を基準とし、従来のBelin方法をアップグレードし、高さ増幅データにより角膜前後面の病変特徴を十分に反映するだけでなく、異なるBSF値を変更することにより特徴の次元を向上させ、統計方法使用時の特異性を向上させ、偽陽性の誤報率を減少させる。
ステップC-1では、角膜前面の標準的相対高さデータを取得し、角膜前後面の絶対高さデータに対して、角膜前面の直径が8mmの範囲内の絶対高さデータで球面フィッティングを行い、BFS(最適フィッティング球面)値を取得して、角膜前面データと取得された最適フィッティング球面との間の高さ差を角膜前面の標準的相対高さデータとする。
ステップC-2では、角膜前面の特徴的高さデータを取得し、角膜前後面の絶対高さデータに対して、角膜前面の直径が8mmの範囲内の絶対高さデータを基準とし、最薄点位置の半径2mm範囲内のデータを除去して球面フィッティングを行い、BFS値を取得する。現在のBFSを基準とし、0.2mmをステップサイズとし、上下へそれぞれ5組オフセットして11組の異なるBFS値を取得する。角膜前面データと取得された異なるBFS最適フィッティング球面との間の高さ差を角膜前面の特徴的相対高さデータとする。
ステップC-3では、角膜前面の増幅高さデータを取得し、ステップC-2で取得された標準的相対高さデータとステップC-3で取得された11組の特徴的相対高さデータを差分して、11組の角膜前面増幅データを取得する。
ステップC-4では、角膜後面の標準的相対高さデータを取得し、角膜前後面の絶対高さデータに対して、角膜後面の直径が8mmの範囲内の絶対高さデータで球面フィッティングを行い、BFS値を取得して、角膜後面データと取得された最適フィッティング球面との間の高さ差を角膜後面の標準的相対高さデータとする。
ステップC-5では、角膜後面の特徴的高さデータを取得し、角膜前後面の絶対高さデータに対して、角膜後面の直径が8mmの範囲内の絶対高さデータを基準とし、最薄点位置の半径2mm範囲内のデータを除去して球面フィッティングを行い、BFS値を取得する。現在のBFSを基準とし、0.2mmをステップサイズとし、上下へそれぞれ5組オフセットして11組の異なるBFS値を取得する。角膜後面データと取得された異なるBFS最適フィッティング球面との間の高さ差を角膜後面の特徴的相対高さデータとする。
ステップC-6では、角膜後面の増幅高さデータを取得するステップであって、ステップC-4で取得された角膜後面の標準的相対高さデータとステップC-5で取得された11組の特徴的相対高さデータを差分して、11組の角膜後面増幅データを取得する。
ステップC-7では、ステップC-3及びC-6で合計して取得された22組の角膜前後面の増幅データマトリックスを特徴とし、全てのサンプルデータを組み合わせて各組のデータの円錐角膜症例と正常症例の臨界閾値を統計する。
ステップC-8では、本分岐方法Cで取得されたある症例の両眼に円錐角膜が発生する確率をそれぞれp(Cl)とp(Cr)として記録する。p(Cl)とp(Cr)は、いずれも現在の症例に基づいて計算された各組の増幅データとステップC-7で取得された臨界閾値との間の差分値を重み比率として加算して取得される。分類結果P(C)=p(Cl)(p(Cl)>p(Cr))、p(Cr)(p(Cl)<p(Cr))を出力する。
分岐方法D:当該分岐方法は、両眼症例を基準とし、左右眼の4屈折マップデータを組み合わせる方法を採用し、両眼のトポグラフィーの差異データを抽出することにより病巣自体の特徴を反応させることにより、円錐角膜患者を個体とする識別精度を向上させる。
ステップD-1では、データ方位を統一し、右眼の4屈折マップデータマトリックスを縦列方向に沿って鏡像する。これにより、左右眼の4屈折マップデータマトリックスの鼻側及び側頭側の方位を統一する。
ステップD-2では、図5に示すように、4屈折マップdiffグラフマトリックスを取得し、それぞれ左右眼の4屈折マップデータマトリックスに対してポイントツーポイント差分を行った後に絶対値を取得し、4屈折マップdiffグラフデータマトリックスを取得する。
ステップD-3では、diffデータ特徴を計算し、直径が6mmのデータ範囲内の4屈折マップdiffグラフデータマトリックスにおける全てのデータの平均値、最大値、標準偏差をそれぞれ計算して特徴量とする。
ステップD-4では、ステップD-3で取得された12組の左右眼角膜の4屈折マップdiffグラフの平均値、最大値、標準偏差を特徴とし、全てのサンプルデータを組み合わせて各組のデータの円錐角膜症例と正常症例の臨界閾値を統計する、又はSVM分類方法を採用し、全てのタイプのdiffデータの特徴に正規化トレーニングとテストを行い、最適な感受性及び特異性を与える。
ステップD-5では、本分岐方法で取得されたある症例の両眼に円錐角膜が発生する確率をそれぞれP(D)として記録し、P(D)は、現在の症例に基づいて計算された各組のdiffデータ固有値とステップD-4で取得された臨界閾値との間の差分値を重み比率として加算して取得される。
ステップ5では、分岐方法A、B、C、Dにおける最後の結果を重み付け加算することにより、ある症例の両眼に円錐角膜が発生する最終的な確率P=w×P(A)+w×P(B)+w×P(C)+w×P(D)/(w+w+w+w)を取得する。ここで、w、w、w、wは、それぞれ分岐方法A、B、C、Dの重み値である。当該重み値の取得は、目標需要に応じて、各分岐方法の利点を十分に利用するよう確保することにより、感受性及び特異性の最適なバランスを達成し、ロバスト性を確保すると同時に偽陰性率及び偽陽性率を最小化する。
上述した実施例は、本発明のいくつかの実施形態を示し、その説明が具体的で詳細であるが、本発明の特許範囲を限定するものと理解すべきではない。なお、当業者にとっては、本発明の構想から逸脱しない前提で、さらにいくつかの変形及び改善を行うことができ、これらは、いずれも本発明の保護範囲に属する。したがって、本発明の特許の保護範囲は、添付された特許請求の範囲を基準とすべきである。

Claims (5)

  1. 両眼マルチモーダルデータを収集するデータ収集ユニットであって、前記データは、両眼角膜の4屈折マップ及び角膜絶対高さデータを含み、前記角膜の4屈折マップは、角膜前面の軸方向曲率、角膜前面の相対高さトポグラフィー、角膜後面の相対高さトポグラフィー及び角膜厚さトポグラフィーを含み、前記角膜絶対高さデータは、角膜前後面の絶対高さデータを含むデータ収集ユニットと、
    分類された症例に基づいて、前記両眼マルチモーダルデータを分類された種類と関連付け、要求に応じてデータ分類を行うデータ分類ユニットと、
    前記データ分類ユニットの前記4屈折マップにおける各トポグラフィーデータ及び前記角膜前後面の高さデータを同じサイズのデータマトリックスに統一する統一ユニットと、
    以上のデータに基づいて4つの分岐ユニットでそれぞれ両眼早期円錐角膜を判断する判断ユニットであって、4つの前記分岐ユニットは、それぞれ分岐ユニットA、分岐ユニットB、分岐ユニットC及び分岐ユニットDであり、
    分岐ユニットAは、全ての前記4屈折マップデータマトリックスをデータ処理した後に深度畳み込みネットワークの分類ネットワークに送信して円錐角膜の感受性及び特異性を識別し、ある症例を取得し、当該ある症例に対して分類結果P(A)を出力し、
    分岐ユニットBは、全ての前記4屈折マップデータマトリックスにおける各マップデータマトリックスに対して固有値計算を行い、固有値データをSVMサポートベクターマシン二分類方法に送信し、円錐角膜の感受性及び特異性を識別し、ある症例を取得し、当該ある症例に対して分類結果P(B)を出力し、
    分岐ユニットCは、前記角膜前後面の絶対高さデータを最適フィッティング球面データと比較し、円錐角膜症例と正常症例の臨界閾値を取得することにより、ある症例を判定し、当該ある症例に対して分類結果P(C)を出力し、
    分岐ユニットDは、左右眼の4屈折マップデータマトリックスの平均値、最大値、標準偏差を特徴量とし、臨界閾値を利用するか、又はSVM分類方法を用いて、最適な感受性及び特異性、及びある症例の両眼に円錐角膜が発生する確率P(D)を取得する、判断ユニットと、
    前記分岐ユニットA、B、C、Dにおける最後の結果を重み付け加算することにより、前記ある症例の両眼に円錐角膜が発生する最終的な確率を取得する取得ユニットと、を含むことを特徴とする、
    マルチモーダルデータに基づく両眼円錐角膜の評価システム
  2. 前記分岐ユニットAは、具体的には、
    データをスケーリングするスケーリング部であって、前記統一ユニットで処理された全ての前記4屈折マップデータマトリックスを線形補間の方法で224×224のサイズにスケーリングするスケーリング部と、
    データを正規化する正規化部Aであって、前記データを7:3の比率に応じてトレーニングセットと検証セットに分け、次に前記トレーニングセットでそれぞれ前記4屈折マップデータマトリックスの平均値と標準偏差を計算し、それに応じて4つの平均値と4つの標準偏差を取得して、全ての症例の4屈折マップデータマトリックスを前記平均値と前記標準偏差で正規化する正規化部Aと、
    深度畳み込みネットワークの分類ネットワーク設計に基づいて、Resnet50分類ネットワークを用いて前記4屈折マップデータマトリックスに二分類を行うことにより、単眼の正常角膜及び円錐角膜を識別する識別部と、
    分類モデルをトレーニングするトレーニング部Aであって、前記4屈折マップデータマトリックスをチャネルに応じて接続して、4チャネルの入力を取得し、データ増幅は、回転、平行移動、ランダムファジー前処理を採用し、損失関数は、二分類の交差エントロピー関数を採用し、MobileNetV3のIMAGENETデータセットでのトレーニング重み値を初期重み値とし、次に微調整トレーニングを行い、最終的に前記トレーニングセットと前記検証セットのloss値の差が最小のトレーニング重み値をトレーニング結果として選択するトレーニング部Aと、
    モデル指標を評価する評価部Aであって、前記検証セットで予測を行い、次に真値と比較評価して、最後に当該分岐ユニットAで円錐角膜の感受性及び特異性を識別し、取得する評価部Aと、
    結果を出力する出力部Aであって、評価部Aでの前記トレーニングセットに対するテストの感受性及び特異性が要求に達すると、本分岐ユニットAで取得された前記ある症例の両眼に円錐角膜が発生する確率をそれぞれp(Al)及びp(Ar)として記録し、分類結果P(A)=p(Al)(p(Al)>p(Ar))、p(Ar)(p(Al)<p(Ar))を出力する出力部Aと、を含むことを特徴とする、
    請求項1に記載のマルチモーダルデータに基づく両眼円錐角膜の評価システム
  3. 前記分岐ユニットBは、具体的には、
    角膜前面の軸方向曲率の固有値を計算する角膜前面軸方向曲率計算部であって、角膜前面の軸方向曲率データマトリックスにおいて曲率の最大最小値点及び位置座標を計算し、直径6mm位置における上下屈折力差IS値を計算し、直径が4.5mmの範囲内の表面不規則性SRI値、表面非対称性SAI値を計算する角膜前面軸方向曲率計算部と、
    角膜前面の相対高さの固有値を計算する角膜前面相対高さ計算部であって、角膜前面の相対高さデータマトリックスにおいて高さの最大値及び位置座標を計算する角膜前面相対高さ計算部と、
    角膜後面の相対高さの固有値を計算する角膜後面相対高さ計算部であって、角膜後面の相対高さデータマトリックスにおいて高さの最大値及び位置座標を計算する角膜後面相対高さ計算部と、
    角膜厚さの固有値を計算する角膜厚さ計算部であって、角膜厚さデータマトリックスにおいて厚さの最小値及び位置座標を計算し、角膜頂点での厚さを計算する角膜厚さ計算部と、
    距離の固有値を計算する距離計算部であって、前記角膜前面相対高さ計算部によって計算される角膜前面の高さの最大値位置と前記角膜後面相対高さ計算部によって計算される角膜後面の高さの最大値位置との間の距離を計算し、前記角膜前面の高さの最大値位置と前記角膜厚さ計算部によって計算される角膜厚さの最小値位置との間の距離を計算し、前記角膜後面の高さの最大値位置と前記角膜厚さの最小値位置との間の距離を計算する距離計算部と、
    角膜体積の固有値を計算する角膜体積計算部であって、前記角膜厚さデータマトリックスを半径が4.5mmの範囲内で体積積分して前記角膜体積を取得する角膜体積計算部と、
    全ての前記固有値に正規化処理を行い、かつ全ての正規化された症例データの固有値を7:3の比率に応じてトレーニングセットと検証セットに分ける正規化部Bと、
    SVMサポートベクターマシン二分類方法を用いて前記正規化部Bで正規化された前記トレーニングセットの特徴データに特徴トレーニングを行い、前記特徴トレーニング中にRBF kernelを選択し、cross-validation及びgrid-searchを用いて最適なc及びgを取得してデータをトレーニングするトレーニング部Bと、
    モデル指標を評価する評価部Bであって、前記検証セットで予測を行い、次に真値と比較評価して、最後に当該分岐ユニットで円錐角膜の感受性及び特異性を識別する評価部Bと、
    結果を出力する出力部Bであって、前記トレーニングセットに対するテストの感受性及び特異性が要求に達すると、本分岐ユニットBで取得された前記ある症例の両眼に円錐角膜が発生する確率をそれぞれp(Bl)及びp(Br)として記録し、分類結果P(B)=p(Bl)(p(Bl)>p(Br))、p(Br)(p(Bl)<p(Br))を出力する出力部Bと、を含むことを特徴とする、
    請求項1に記載のマルチモーダルデータに基づく両眼円錐角膜の評価システム
  4. 前記分岐ユニットCは、具体的には、
    前記角膜前面の標準的相対高さデータを取得する角膜前面標準的相対高さ取得部であって、前記角膜前後面の絶対高さデータに対して、前記角膜前面の直径が8mmの範囲内の絶対高さデータで球面フィッティングを行い、BFS値を取得して、前記角膜前面データと取得された最適フィッティング球面との間の高さ差を前記角膜前面の標準的相対高さデータとする角膜前面標準的相対高さ取得部と、
    前記角膜前面の特徴的高さデータを取得する角膜前面特徴的高さ取得部であって、前記角膜前後面の絶対高さデータに対して、前記角膜前面の直径が8mmの範囲内の絶対高さデータを基準とし、最薄点位置の半径2mm範囲内のデータを除去して球面フィッティングを行い、BFS値を取得し、現在の前記BFSを基準とし、0.2mmをステップサイズとし、上下へそれぞれ5組オフセットして11組の異なるBFS値を取得して、前記角膜前面データと前記取得された異なるBFS最適フィッティング球面との間の高さ差を前記角膜前面の特徴的相対高さデータとする角膜前面特徴的高さ取得部と、
    前記角膜前面の増幅高さデータを取得する角膜前面増幅高さ取得部であって、前記標準的相対高さデータと前記11組の特徴的相対高さデータを差分して、11組の角膜前面増幅データを取得する角膜前面増幅高さ取得部と、
    前記角膜後面の標準的相対高さデータを取得する角膜後面標準的相対高さ取得部であって、前記角膜前後面の絶対高さデータに対して、前記角膜後面の直径が8mmの範囲内の絶対高さデータで球面フィッティングを行い、BFS値を取得して、前記角膜後面データと取得された最適フィッティング球面との間の高さ差を前記角膜後面の標準的相対高さデータとする角膜後面標準的相対高さ取得部と、
    前記角膜後面の特徴的高さデータを取得する角膜後面特徴的高さ取得部であって、前記角膜前後面の絶対高さデータに対して、前記角膜後面の直径が8mmの範囲内の絶対高さデータを基準とし、最薄点位置の半径2mm範囲内のデータを除去して球面フィッティングを行い、BFS値を取得し、現在の前記BFSを基準とし、0.2mmをステップサイズとし、上下へそれぞれ5組オフセットして11組の異なるBFS値を取得し、前記角膜後面データと取得された異なる前記BFS最適フィッティング球面との間の高さ差を前記角膜後面の特徴的相対高さデータとする角膜後面特徴的高さ取得部と、
    前記角膜後面の増幅高さデータを取得する角膜後面増幅高さ取得部であって、前記角膜後面の標準的相対高さデータと前記11組の特徴的相対高さデータを差分して、11組の角膜後面増幅データを取得する角膜後面増幅高さ取得部と、
    前記角膜前面増幅高さ取得部及び前記角膜後面増幅高さ取得部により取得した高さデータを合計して取得された22組の前記角膜前後面の増幅データマトリックスを特徴とし、全てのサンプルデータを組み合わせて各組のデータの円錐角膜症例と正常症例の臨界閾値を統計する統計部と、
    分岐ユニットCで取得された前記ある症例の両眼に円錐角膜が発生する確率をそれぞれp(Cl)とp(Cr)として記録する記録部Cであって、p(Cl)とp(Cr)は、いずれも現在の症例に基づいて計算された各組の増幅データと統計部により取得された前記臨界閾値との間の差分値を重み比率として加算して取得され、分類結果P(C)=p(Cl)(p(Cl)>p(Cr))、p(Cr)(p(Cl)<p(Cr))を出力する記録部Cと、を含むことを特徴とする、
    請求項1に記載のマルチモーダルデータに基づく両眼円錐角膜の評価システム
  5. 前記分岐ユニットDは、具体的には、
    データ方位を統一する統一部であって、右眼の4屈折マップデータマトリックスを縦列方向に沿って鏡像し、前記左右眼の4屈折マップデータマトリックスの鼻側及び側頭側の方位を統一する統一部と、
    4屈折マップdiffグラフマトリックスを取得する4屈折マップdiffグラフマトリックス取得部であって、それぞれ前記左右眼の4屈折マップデータマトリックスに対してポイントツーポイント差分を行った後に絶対値を取得し、4屈折マップdiffグラフデータマトリックスを取得する4屈折マップdiffグラフマトリックス取得部と、
    diffデータ特徴を計算するdiffデータ特徴計算部であって、直径が6mmのデータ範囲内の前記4屈折マップdiffグラフデータマトリックスにおける全てのデータの平均値、最大値、標準偏差をそれぞれ計算して特徴量とするdiffデータ特徴計算部と、
    diffデータ特徴計算部により取得された12組の前記左右眼角膜の4屈折マップdiffグラフの平均値、最大値、標準偏差を特徴とし、全てのサンプルデータを組み合わせて各組のデータの円錐角膜症例と正常症例の臨界閾値を統計するか、又はSVM分類方法を採用し、全てのタイプのdiffデータの特徴に正規化トレーニングとテストを行い、最適な感受性及び特異性を与える賦与部と、
    分岐ユニットDで取得された前記ある症例の両眼に円錐角膜が発生する確率をそれぞれP(D)として記録する記録部Dであって、前記P(D)は、現在の症例に基づいて計算された各組のdiffデータ固有値と前記賦与部により取得された前記臨界閾値との間の差分値を重み比率として加算して取得される記録部Dと、を含むことを特徴とする、
    請求項1に記載のマルチモーダルデータに基づく両眼円錐角膜の評価システム
JP2022541624A 2021-06-28 2021-08-05 マルチモーダルデータに基づく両眼円錐角膜の評価システム Active JP7454679B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110717940.2A CN113284140B (zh) 2021-06-28 2021-06-28 一种基于多模态数据的双眼圆锥角膜诊断方法
CN202110717940.2 2021-06-28
PCT/CN2021/110812 WO2023272876A1 (zh) 2021-06-28 2021-08-05 一种基于多模态数据的双眼圆锥角膜诊断方法

Publications (2)

Publication Number Publication Date
JP2023540651A JP2023540651A (ja) 2023-09-26
JP7454679B2 true JP7454679B2 (ja) 2024-03-22

Family

ID=77285790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022541624A Active JP7454679B2 (ja) 2021-06-28 2021-08-05 マルチモーダルデータに基づく両眼円錐角膜の評価システム

Country Status (6)

Country Link
US (1) US11717151B2 (ja)
EP (1) EP4365829A1 (ja)
JP (1) JP7454679B2 (ja)
KR (1) KR20230005108A (ja)
CN (1) CN113284140B (ja)
WO (1) WO2023272876A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115880283B (zh) * 2023-01-19 2023-05-30 北京鹰瞳科技发展股份有限公司 用于检测角膜类型的装置、方法和计算机可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170357879A1 (en) 2017-08-01 2017-12-14 Retina-Ai Llc Systems and methods using weighted-ensemble supervised-learning for automatic detection of ophthalmic disease from images
CN109256207A (zh) 2018-08-29 2019-01-22 王雁 一种基于XGBoost+SVM混合机器学习诊断圆锥角膜病例的方法
CN110517219A (zh) 2019-04-01 2019-11-29 刘泉 一种基于深度学习的角膜地形图判别方法及***
CN110717884A (zh) 2019-08-30 2020-01-21 温州医科大学 一种基于眼前节断层成像技术的变化一致性参数用于表达角膜不规则性结构改变的方法
CN111160431A (zh) 2019-12-19 2020-05-15 浙江大学 一种基于多维特征融合的圆锥角膜识别方法及装置
JP2020124460A (ja) 2019-02-06 2020-08-20 学校法人自治医科大学 教師なし機械学習を使用して角膜重症度の同定を支援する方法
JP2021531098A (ja) 2018-07-27 2021-11-18 ユニバーシティー オブ マイアミUniversity Of Miami Aiを利用した眼の状態判定のためのシステムおよび方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200146812A1 (en) * 2018-07-02 2020-05-14 Gebauer-Klopotek Patent Verwaltungs-Ug Stabilization of collagen scaffolds
CN111340776B (zh) * 2020-02-25 2022-05-03 浙江大学 一种基于多维特征自适应融合的圆锥角膜识别方法和***
CN112036448B (zh) * 2020-08-11 2021-08-20 上海鹰瞳医疗科技有限公司 圆锥角膜识别方法及设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170357879A1 (en) 2017-08-01 2017-12-14 Retina-Ai Llc Systems and methods using weighted-ensemble supervised-learning for automatic detection of ophthalmic disease from images
JP2021531098A (ja) 2018-07-27 2021-11-18 ユニバーシティー オブ マイアミUniversity Of Miami Aiを利用した眼の状態判定のためのシステムおよび方法
CN109256207A (zh) 2018-08-29 2019-01-22 王雁 一种基于XGBoost+SVM混合机器学习诊断圆锥角膜病例的方法
JP2020124460A (ja) 2019-02-06 2020-08-20 学校法人自治医科大学 教師なし機械学習を使用して角膜重症度の同定を支援する方法
CN110517219A (zh) 2019-04-01 2019-11-29 刘泉 一种基于深度学习的角膜地形图判别方法及***
CN110717884A (zh) 2019-08-30 2020-01-21 温州医科大学 一种基于眼前节断层成像技术的变化一致性参数用于表达角膜不规则性结构改变的方法
CN111160431A (zh) 2019-12-19 2020-05-15 浙江大学 一种基于多维特征融合的圆锥角膜识别方法及装置

Also Published As

Publication number Publication date
WO2023272876A1 (zh) 2023-01-05
JP2023540651A (ja) 2023-09-26
US20230190089A1 (en) 2023-06-22
CN113284140B (zh) 2022-10-14
CN113284140A (zh) 2021-08-20
KR20230005108A (ko) 2023-01-09
US11717151B2 (en) 2023-08-08
EP4365829A1 (en) 2024-05-08

Similar Documents

Publication Publication Date Title
Hossain et al. Automatic detection of eye cataract using deep convolution neural networks (DCNNs)
CN109726743B (zh) 一种基于三维卷积神经网络的视网膜oct图像分类方法
CN110517219B (zh) 一种基于深度学习的角膜地形图判别方法及***
AU2008356237A1 (en) Automatic cup-to-disc ratio measurement system
CN114821189B (zh) 一种基于眼底图像的病灶图像分类与识别方法
KR102313143B1 (ko) 딥러닝에 기반한 당뇨망막병증 검출 및 증증도 분류장치 및 그 방법
CN113243887B (zh) 一种老年黄斑变性智能诊疗仪
CN110781953B (zh) 基于多尺度金字塔卷积神经网络的肺癌病理切片分类方法
CN116092680B (zh) 基于随机森林算法的腹主动脉瘤早期预测方法及***
CN112700858B (zh) 一种儿童青少年近视预警方法及设备
Hernandez et al. Retracted: Early detection of Alzheimer's using digital image processing through iridology, an alternative method
TWI759899B (zh) 利用高光譜影像診斷疾病及/或預測該疾病嚴重程度之方法及系統
JP7454679B2 (ja) マルチモーダルデータに基づく両眼円錐角膜の評価システム
CN112712122A (zh) 基于神经网络模型的角膜溃疡的分类检测方法及***
Zhang et al. Artificial intelligence-assisted diagnosis of ocular surface diseases
Agustin et al. Implementation of data augmentation to improve performance CNN method for detecting diabetic retinopathy
CN114334124A (zh) 一种基于深度神经网络的病理性近视检测***
Joshua et al. Assessment of the cup-to-disc ratio method for glaucoma detection
CN113012148A (zh) 一种基于眼底影像的糖尿病肾病-非糖尿病肾病鉴别诊断装置
CN116763250A (zh) 眼前节图像的眼压信息提取方法、终端和存储介质
Thanh et al. A real-time classification of glaucoma from retinal fundus images using AI technology
CN113273959B (zh) 一种便携式糖尿病视网膜病变诊疗仪
CN114998300A (zh) 一种基于多尺度信息融合网络的角膜溃疡分类方法
CN115954099B (zh) 一种基于多模态步态参数的脑卒中关联量化评估方法
CN111374632A (zh) 视网膜病变检测方法、装置及计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7454679

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150