JP6005663B2 - 血管画像における動静脈比の自動測定 - Google Patents

血管画像における動静脈比の自動測定 Download PDF

Info

Publication number
JP6005663B2
JP6005663B2 JP2013550644A JP2013550644A JP6005663B2 JP 6005663 B2 JP6005663 B2 JP 6005663B2 JP 2013550644 A JP2013550644 A JP 2013550644A JP 2013550644 A JP2013550644 A JP 2013550644A JP 6005663 B2 JP6005663 B2 JP 6005663B2
Authority
JP
Japan
Prior art keywords
vessel
image
pixels
veins
avr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013550644A
Other languages
English (en)
Other versions
JP2014504523A (ja
Inventor
マイケル アブラモフ
マイケル アブラモフ
マインデルト ニーマイエル
マインデルト ニーマイエル
シャユ シュ
シャユ シュ
ミラン ソンカ
ミラン ソンカ
Original Assignee
ユニバーシティ オブ アイオワ リサーチ ファウンデーション
ユニバーシティ オブ アイオワ リサーチ ファウンデーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーシティ オブ アイオワ リサーチ ファウンデーション, ユニバーシティ オブ アイオワ リサーチ ファウンデーション filed Critical ユニバーシティ オブ アイオワ リサーチ ファウンデーション
Publication of JP2014504523A publication Critical patent/JP2014504523A/ja
Application granted granted Critical
Publication of JP6005663B2 publication Critical patent/JP6005663B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/0058Operational features thereof characterised by display arrangements for multiple images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1225Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

関連特許出願の相互参照
本出願は、2011年1月20日に出願された米国仮特許出願第61/434,551号の優先権を主張し、その全体は参照により本明細書に援用される。
血管(たとえば、脊椎動物における網膜血管および他の血管)における、細動脈対細静脈の直径比(AVR)を自動測定できる方法およびシステムを提示する。
AVRは、脳卒中、脳委縮症、認知低下および心筋梗塞に対するリスク増加の重要な予測因子である。それゆえ、(a)たとえば糖尿病性網膜症スクリーニング等の他の理由で、眼底撮像をすでに受けている患者における心血管系事象のリスク分析、(b)明確に上記理由のために眼底撮像を受けている患者に対するリスク分析、または(c)他の状況におけるリスク分析を実行するために、AVRを用いることができる。
心血管系事象を予測できる方法およびシステムを提示する。異なる実施形態において、医学、神経学、プライマリーケア、眼科学を含む多くの分野において適用可能な方法およびシステム、ならびに、虹彩、肌、鼓膜およびアルビノ動物における他の器官等の、多波長イメージングに適した身体の他の部分における血管の特性を測定するための、他のアプリケーションにおいて適用可能な方法およびシステムを提示する。
これまで、AVRは常に、専門家が必要な、時間のかかるプロセスである網膜のカラー眼底撮像から手動で測定されていた。臨床医は網膜を見るが、実質的に異常なa/v比を大まかに計算することができるのみで、数値的な比率を測定することはできない。
網膜動脈の静脈に対する幅の比(細動脈対細静脈の直径比、AVR)が減少すると、脳委縮症、脳卒中および他の心血管系事象等の医学的状態が推測されうる。蛇行、拡張した動脈および静脈、そしてAVRの減少もまた、未熟児網膜症におけるPlus疾患に対するマーカーとなりうる。一つの態様において、視神経乳頭の位置を検出し、適切な関心領域(ROI)を決定し、動脈または静脈として血管を分類し、幅を推定し、AVRを算出することによる、網膜のカラー画像におけるAVRの推定ができる方法およびシステムが提示される。さらなる態様において、血管の区分および血管幅の測定の後、視神経乳頭が位置づけられ、AVR測定ROIの外にあるすべての血管がシステムから排除されうる。骨格化する操作を残りの血管に適用した後、交差している血管および分枝点を除去し、血管中心線ピクセルである一連の血管の区分を残すことができる。特性を中心線ピクセルのそれぞれから抽出し、これらを、ピクセルが静脈の一部である尤度を示すソフトラベルに割り当てることができる。接続された血管区分におけるすべての中心線ピクセルは、同じタイプであるべきなので、中央ソフトラベルは、区分の中心線ピクセルのそれぞれに割りあてられることができる。動脈/静脈対は、反復アルゴリズム、およびAVRの算出のために用いられる血管の幅を用いて一致させることができる。
AVR測定のために提示される自動方法およびシステムは、臨床診療に大きな影響を与え、心血管系および脳疾患のリスクのある患者の評価法を改善することができる。
さらなる利点は、一部以下の記載、または実施例により習得されうる記載において記述される。利点は、添付の特許請求の範囲において特に挙げられる要素および組み合わせによって理解され、実現される。前述の概説および以下の詳述の両方が、例示および解説のみであり、特許請求されるように、限定的なものではないことが理解される。
本明細書に組み込まれ、その一部を構成する添付の図は、実施形態を図示し、本明細書とともに、本方法およびシステムの本質を説明するのに役立つものである。
図1は、自動測定されたROI領域と重ね合わせた画像を示す。 図2は、本明細書において、小さな部分画像上で記載される様々な処理工程を示す画像である。図2aは、カラー眼底画像である。図2bは、血管尤度マップである。この画像において、より高いピクセル値は、血管の尤度がより高いことを意味する。図2cは、個々のスプラットの境界が示される、スプラットマップである。図2dは、各スプラットが、そのスプラット下の血管尤度の中央値を割り当てられた、処理された血管尤度マップ。図2eは、各中央線ピクセルが静脈の内側である尤度を割り当てられた、血管中心線(表示のために拡張されている)である。図2fは、オリジナルの画像上に重ねられた最終の幅測定値。各3番目の測定値のみがプロットされている。 図3は、網膜画像上に重ねられた(図3a)、動脈静脈中心線の分類結果(図3b)を図示する。 図4は、直径測定、および幅測定値が得られた血管交差を示す眼底写真の詳細である。 図5aは、カラー眼底画像である。図5bは、対応する血管らしさ(vesselness)の画像である。 図6は、血管の正常なプロファイルがどのようにグラフへと出力されたかを示す。図6aは、図5から抽出された血管の小区分。図6bは、図6aの血管確率画像。図6cは、図6aの血管中心線画像。図6dは、血管増加方向が算出され、血管増加方向に垂直なノード正常プロファイルが構成されている。図6eには、図6dにおける赤色正常プロファイルを使用して、赤色グラフスライスが作られ、図6dにおける緑色正常プロファイルを使用して、緑色グラフスライスが作られている。黒いノードは、ベースノードを表し、図6dにおける黒色中心線ピクセルに対応している。結果として、赤色スライスは図6dにおける一つの境界を表し、緑色スライスは図6dにおける他の境界を表す。 図7aは、緑色チャネル画像の拡大部分を示す。 図7bは、方向感受性のガウス1D導関数の結果を示す。 図8は、方法の工程を図示するフローチャートの例である。 図9は、ROC分析からの曲線である。 図10は、Bland−Altmanプロットまたは自動システムと参照標準の間の一致(図10a)、および2番目のオブザーバーと参照標準の間の一致(図10b)を提示する。 図11は、得られた血管境界検出の品質を図示する。低いコントラストを有する最も小さい血管上でも、良い性能が得られた。図11aは、GLRISデータベースからの一つの画像である。画像サイズは2160×1440、a=4である。図11bは、図11aの画像の拡大部分である。 図12は、予測された血管幅およびオブザーバーによるHRISの測定値の平均の相関関係を示す。 図13は、血管幅と視神経乳頭への距離の間の関連性を図示する。 図14は、異なる解像度の血管区分上の血管幅測定値を図示する。図14aは、HRISからの一つの検証血管区分である。血管区分の長さは173ピクセルである。図14bは、KPISからの一つの検証血管区分である。血管区分の長さは226ピクセルである。図14cは、(a)の血管幅測定結果である。もし検出された端が整数の位置ではない場合、最も近い整数の座標が示される。図14dは、(b)の血管幅測定結果である。もし検出された端が整数の位置ではない場合、最も近い整数の座標が示される。図14eは、(a)に対する中心線への距離に関する血管明度の断面図である。黒い曲線は、血管区分における173の正常プロファイルの平均である。整数ではない位置にある明度は、直線的に内挿されている。赤い星は、オブザーバーによりマークされた血管区分全体にわたる血管幅の平均である。緑色の星は、提案された方法により測定された血管区分全体にわたる血管幅の平均である。2つの境界は、反転され、一つの図で示されている。図14fは、図14bに対する中心線への距離に関する血管明度の断面図である。 図15は、操作環境の例示である。
本方法および本システムが開示および記載される前に、本方法および本システムは、特定の方法、特定の構成要素または特定の構造に限定されないことが理解される。また、本明細書に使用される専門用語は、特定の実施形態を記述する目的のためのみであり、限定は意図されないことが理解される。
本明細書および添付の特許請求の範囲に使用されるように、単数形の、「ある(an)」、「ある(a)」、および「その」は、その文脈が他に明確に指示しない限り、複数形の指示対象を含む。範囲は、本明細書において、「約」一方の特定の値から、および/または、「約」他方の特定の値までとして、表現されうる。そのような範囲が表現された場合、他の実施形態は、その一方の特定の値から、および/または、その他方の特定の値までを含む。同様に、値が近似値として表現された場合、先行する「約」の使用により、特定の値は他の実施形態を形成することが理解される。さらに、範囲のそれぞれのエンドポイントは、他のエンドポイントに関して、および他のエンドポイントから独立して、の両方で重要であることが理解される。
「任意で」または「任意に」は、引き続き記述される事象または状況が発生するかもしれないまたはしないかもしれないということと、および、その記述が、前記事象または状況が発生する例、および発生しない例を含むことを意味する。
本明細書の記述および特許請求の範囲を通して、「含む」という文言および、そのバリエーション(たとえば、「含むこと」および「含有する」)は、「含むが、限定されない」を意味し、たとえば、他の追加物、構成要素、整数または工程を除外する意図はない。「例示」は、「〜のある例」を意味し、好ましい、または理想的な実施形態の示唆を伝達することは意図されない。「たとえば」は、制限的な意味で用いられず、例示の目的でのみ用いられる。
開示された方法およびシステムを実行するために用いることができる構成要素が開示される。これら、および他の構成要素は、本明細書に開示され、様々な個々の組み合わせ各々のおよび集合的な組み合わせの特定の参照およびこれらの置換が明示的に開示されずに、これらの構成要素の組み合わせ、サブセット、相互作用、群等が開示される場合、各々は、すべての方法およびシステムに対し、具体的に熟考され、本明細書に記述されることが理解される。これは、限定されないが、開示される方法における工程を含む、本出願のすべての態様に適用される。ゆえに、もし実施可能な様々な追加工程がある場合、これら追加工程のそれぞれは、本開示方法の任意の特定の実施形態または実施形態の組み合わせとともに実行できることが理解される。
本方法および本システムは、以下の好ましい実施形態の詳細な記述、およびそれらに含まれる実施例、および図面、およびそれらの上述および後述の記載を参照することにより、さらに容易に理解される。
当業者により理解されるように、本方法および本システムは、完全にハードウェアの実施形態、完全にソフトウェアの実施形態、またはソフトウェアとハードウェアの態様を組み合わせた実施形態の形態をとりうる。さらに、本方法および本システムは、記憶媒体内に具現化されたコンピューターで読み取り可能なプログラムの指示(たとえば、コンピューターソフトウェア)を有する、コンピューターで読み取り可能な記憶媒体上のコンピュータープログラム製品の形態をとりうる。より詳細には、本方法および本システムは、ウェブで実行されるコンピューターソフトウェアの形態をとりうる。ハードディスク、CD−ROM、光学式記憶媒体または磁気記憶デバイスを含む、任意の適切なコンピューターで読み取り可能な記憶媒体が使用されうる。
本方法および本システムの実施形態は、方法、システム、装置およびコンピュータープログラム製品のブロック図およびフローチャート図の参照とともに、以下に記述される。ブロック図およびフローチャート図の各ブロック、ならびにブロック図およびフローチャート図のブロックの組み合わせは、それぞれ、コンピュータープログラムの指示により実施できることが、理解される。これらのコンピュータープログラムの指示は、コンピューターまたは他のプログラム可能なデータ処理装置上で実行する指示が、フローチャートブロック(block)またはブロック(blocks)で特定される機能を実施するための手段を生み出すように、汎用コンピューター、特殊用途のコンピューター、または機械を製造するための他のプログラム可能なデータ処理装置上にロードされ得る。
これらのコンピュータープログラムの指示はまた、コンピューターで読み取り可能なメモリ内に保存された指示が、フローチャートブロック(block)またはブロック(blocks)で特定される機能を実施するための、コンピューターで読み取り可能な指示を含む製品を製造するように、特定の方法で機能するようにコンピューターまたは他のプログラム可能なデータ処理装置を指示することができる、コンピューターで読み取り可能なメモリ内に保存され得る。コンピュータープログラムの指示はまた、コンピューターまたは他のプログラム可能な装置上で実施される指示が、フローチャートブロック(block)またはブロック(blocks)内で特定される機能を実施するための工程を提供するように、コンピューターまたは他のプログラム可能なデータ処理装置上にロードされ得、コンピューターで実施されるプロセスを生み出すための、コンピューターまたは他のプログラム可能な装置上で実施される一連の操作手順をもたらし得る。
その結果、ブロック図およびフローチャート図のブロックは、特定の機能を実行するための手段の組み合わせ、特定の機能を実行するための工程の組み合わせ、および特定の機能を実行するためのプログラム指示手段を支持する。ブロック図およびフローチャート図の各ブロック、およびブロック図とフローチャート図のブロックの組み合わせは、特定の機能または工程を実施する特殊用途のハードウェアがベースとなるコンピューターシステム、または特種用途のハードウェアとコンピューター指示の組み合わせにより実施されうることがまた、理解される。
ある態様において、AVRの正確な推定は、視神経乳頭検出、血管の区分化、血管幅の測定、血管ネットワークの解析および動脈/静脈分類、の1つ以上を包含することができる。視神経乳頭の検出は、測定が得られた関心領域(ROI)の位置を決定できる。血管の区分化は、血管自身、およびそれが用いられる方法によっては、血管の幅を見出すために用いることができる。次いで、本方法および本システムは、どの血管が動脈で、どの血管が静脈かを高い精度で識別することができる。小さな分類エラーは、最終AVRに多大な影響を有しうる。
AVR測定のためのプロトコールは確立されている。プロトコールは、測定をどこで得るか、測定をどのように得るか、定義する。本明細書に記載される自動方法およびシステムは、可能ならいつでもこのプロトコールを追随する。ある態様において、本方法および本システムは、視野(FOV)の境界周辺の勾配を除去するための、ならびに画像の中の鈍い明度変化を除去するための、画像の前処理でありうる。前処理を、解剖学的ランドマークの検出にさらに集中させることができる。これらは、視神経乳頭、測定値が得られる網膜周辺上のランドマーク、実際に測定される構造の脈血管系を包含することができる。血管幅の測定値を得ることができ、測定領域内の血管は、動脈および静脈に分類できる。最終的に、動脈静脈比が決定される。

A.前処理
本方法および本システムは、一つ以上の前処理技術を実施することができる。たとえば、視野ミラーリングおよびバックグラウンドの除去である。デジタルカラー眼底写真は、FOV周辺に黒い境界を有する。大きな勾配により、FOV境界に近い特性測定が乱される。それは、ミラーリング技術を適用することにより、除外することができる。この方法は、視野の円内からFOVの外まで、ピクセル値を正確に映し出す。この操作は、オリジナル画像の解像度で実行することができる。鈍いバックグラウンド変化は、大きな標準偏差を伴うガウスフィルターで画像をぼやけさせ、オリジナルからぼやけた画像を差し引くことにより除去できる。ガウスフィルターの標準偏差の値は、ぼやけた画像が、例えば血管等の構造を一切含まないことが確実にできるほどに十分に大きい限りは、重要なパラメーターではない。この手順は、赤ならびに緑色面の両方で別々に実施することができる。ここから、緑および赤色面について述べたときはいつでも、それは前処理バージョンを指す。青色面は使用されない。
ある態様において、ピクセル分類は、網膜脈管構造の区分化のために用いられることができる。ガウスフィルターバンクのフィルター出力は、脈管構造を検出するためのkNN−分類器を訓練するための特性として用いることができる。この方法は、ガウスフィルターバンク特性は特定のスケールで抽出されているため、スケール非依存性ではない。さらに、血管区分化法が訓練される画像(たとえば、当業者に既知のDRIVEデータベース)が、特定の解像度を有し、ゆえに特定の血管幅の範囲(ピクセルで測定)を有している。さらなる態様において、画像は、血管区分化を適用する前に、例えば要素4と共にダウンサンプルすることができる。
ある態様において、血管区分法は、画像中の各ピクセルに、ピクセルが血管内であると、0と1の間の尤度を割り与えることができる。これは、二進法の血管区分化を作る閾値でありうる、「血管らしさ(vesselness)マップ」をもたらす。ある態様において、閾値化の前に、血管らしさマップを、たとえば五次スプライン内挿を用いて、オリジナル画像の解像度へアップサンプルして戻しうる。血管ネットワークを解析するために、骨格化法が閾値尤度マップに適用することができ、すべての血管を単一の中心線にまとめることができる。ある態様において、中心線は、一つ以上のピクセル幅でありうる。区分化された血管の骨格化の後、すべての中心線ピクセルに対する近隣ピクセルの数を数え、2つ以上の近隣ピクセルを有する中心線ピクセルを除去することにより、交差点および分枝点が除去されうる。この操作は、血管ネットワークを、個々に分析可能な血管区分の集まりにまでさらに区分化する。
ある態様において、教師あり位置回帰法が、視神経乳頭の中心点を検出するために用いられうる。この方法は、画像の中のある位置が視神経乳頭中心からどのくらい離れているかを推測できる。この推測は、画像中、および血管区分から得られる測定値に基づきうる。画像の中の多数の位置における推測値を得て、視神経乳頭から遠いと推測された位置を除外し、視神経乳頭中心に近いと推測された位置周辺を探索することによって、標的位置が見つけられる。本方法は、視神経乳頭の位置が判明している画像の多数のセットを用いて、最初に訓練することができる。この方法は、視神経乳頭サイズの推測値をもたらさないので、おおよその一定サイズが推定されうる。たとえば、360ピクセルの値は、視神経乳頭の直径(DD)に用いられうる。他の直径は、当業者により使用され、決定されうる。
AVR算出プロトコールは、AVRが測定されるべき関心領域(ROI)を定義する。このROIは、視神経乳頭の中心に置かれる(図1を参照のこと)。図1は、自動的に決定されたROI領域と重ね合わせた画像を示す。「B」と標識された領域は、AVR測定が行われた場所である。ROIは、円領域をいくつか含み、そのサイズは視神経乳頭のおおよその直径に基づいている。領域Aは、視神経乳頭中心から0.5と1DDの間にあり、領域Bは血管測定がなされた場所であり、視神経乳頭中心から1DDと1.5DDの間にある。ある態様において、本方法および本システムにより実行されたすべての分析と評価は、領域B内にあるが、しかし、本方法および本システムが操作できる領域内に広げる、または縮小させることは有益でありうる。

B.血管幅測定
ある態様において、前処理の後、脈管構造を細くして、一連の血管区分へさらに細分化することができる。領域Bの中に(部分的に)ない全ての血管区分(図1)は、AVR分析で用いられないため、除去することができる。提示される血管区分化法はほとんどの血管(すなわち、広いもの、および狭いもの)をうまく位置づけることができるが、部分的な血管幅を決定するために用いられる脈管構造の二進法の区分化を生じさせる単一の閾値を選択することは、難しい。血管区分化法により作られる、尤度マップにおける値は、血管境界から網膜バックグラウンドへ離れるにつれ、ゼロになる傾向がある。この効果はまた、より広い血管より、全体的に低い尤度応答を有する、より狭い血管の血管幅に依存する。結果として、適用された閾値における比較的小さい変化は、十分な血管幅の差異をもたらし、より広い血管に対し視覚的に満足のいく結果を与える閾値は、より小さい血管を完全に見逃す。これは、血管検出が、より低い解像度で実行され、アップサンプル後のより大きなエラーをもたらすという事実により、さらに複雑になる。
ある態様において、トボガニングと呼ばれる技術を、血管区分化と組み合わせることができる。これは血管幅分析を、それらのオリジナルの解像度で、オリジナルの画像の上に実施できるという付加価値を有する。トボガニングは、画像を、ある基準に基づき均質である領域(すなわち、スプラット)へと細分化する区分化技術である。この技術の結果は、流域区分化における「集水流域」と同類である。マルチスケールの勾配度画像は、均質性を定義するために使用できる。勾配度を算出するために、画像は、xおよびy方向の両方において、最初に派生したガウスフィルターによる畳み込みを行うことができ、その後、各ピクセルに対する勾配度を得る。様々なスケールでの勾配度(すなわち、様々な標準偏差σ)は、たとえば脈管構造のような高いコントラストの構造の境界で、最大値を有する傾向がある。より低いスケールのフィルターは、小さい血管の境界でより応答することができ、より高いスケールのフィルターは、より広い血管の境界でより応答することができる。マルチスケール勾配度画像を得るために、スケールを標準化した勾配度を、σ=1,2,3,4,5,6のスケールで算出することができ、画像の中の各ピクセルに対するスケールを超える最大値を使用することができる。トボガニング法を適用した後、スプラットマップ(図2cを参照のこと)を得ることができる。血管区分化アルゴリズムにより作られた尤度マップは、次に、各スプラットに対する、血管の中にある尤度を決定するために用いることができる。これは、スプラットの一部であるピクセルのすべての尤度値の中央値を、各スプラットに割り当てることにより達成される。スプラットは血管の内部または外部のいずれかにあると仮定される(この仮定は、低いコントラスト、狭い血管のケースでは、常には適用できないことに注意されたい)。正しい尤度マップと仮定すると、これは、血管の外部にあるものよりも、より高い尤度を割り当てられた血管の内部のスプラットをもたらす。結果として得られた血管マップにおいて、血管の境界は、より良く定義され、血管の幅の、選択された血管区分化閾値への依存はより少なくなる。この強化された血管マップは、血管幅の決定のために用いることができる。図2は、小さい部分画像上のより詳細なプロセスを示す。
図2は、本明細書に記載の、小さな部分画像上での様々なプロセス工程を示す図である。図2aは、カラー眼底画像。図2bは、血管尤度マップである。この画像における、より高いピクセル値は、より高い血管尤度を意味する。図2cは、スプラットマップ、個々のスプラットの境界を示す。図2dは、各スプラットが、そのスプラット下の中央血管尤度値を割り当てられた、処理された血管尤度マップ。図2eは、各中心線ピクセルが、静脈の内部にある尤度を割り当てられた、血管中心線(表示のために拡張された)。図2fは、オリジナル画像に重ね合わせた最終血管幅測定。各3番目の測定値のみ、プロットされた。
ある態様において、部分的な血管幅の測定は、測定プロセスの間のエラーを最小化するために、部分的な血管の角度と垂直に実施されうる。部分的な血管の角度は、各血管区分におけるすべての中心線ピクセルに対して決定されうる。部分的な血管の角度は、両側に繋がれた7つの近隣ピクセルの座標と共に、中心線ピクセルの座標(すなわち、総数で15座標)の共分散行列の最大固有ベクトルの方向として定義されうる。血管が始まる、または終わるところが知られていないため、角度の範囲は、[0…π]である。血管区分の末端近くでは、血管内部の中心線座標のみが、末端ピクセルに対して、8、使用される。他の値は、当業者により決定され、使用されることができる。図3は、網膜画像に重ね合わせた(図3a)、動脈静脈中心線分類結果(図3b)を図示する。高いピクセル明度を伴う中心線ピクセルは、静脈である尤度がより高いものでありうる。
ある態様において、各中心線ピクセルに対する部分的な血管幅は、解像度を上げた血管マップにおいて左および右の血管の端を見つけ、それらの間の距離を算出することにより測定することができる。血管の端の位置を決定するために、尤度を、中心線ピクセルを通って、部分的な血管の角度と垂直に、線に沿って測定することができる。中心線ピクセルから始まり、血管境界は、左および右方向の両方で見いだされうる。スプラットがもはや血管の一部ではない尤度の閾値は、このアルゴリズムの重要なパラメーターでありうる。血管スプラットに割り当てられた尤度は、画像と共に変化し、部分的な血管のコントラストおよび血管幅に依存するため、部分的な血管の閾値は、各中心線ピクセルに対し決定されうる。中心線ピクセルのもとでの血管の尤度は、血管の閾値に対する適切な値を決定するために、例えば0.7の比率で乗じることができる。
ある態様において、血管区分に対する血管幅が決定された後、エラー補正が、血管幅における突然の部分的な変化を見出すことにより実行することができる。突然の変化は、1つの中心線ピクセルから他の中心線ピクセルへの、所定のピクセル数よりも大きいもの(たとえば、3)として定義されうる。突然の変化は、血管スプラットが血管幅測定に含まれないとき、またはバックグラウンドスプラットが血管幅測定に含まれるときに発生しうる。この比率閾値は、幅測定値が先行血管中心線ピクセル(たとえば、8先行血管中心線ピクセル)に類似(<3ピクセルの差異)するまで、部分的に変化しうる。もし、血管幅が平均幅に一致するように調整できない場合、もともと検出された血管幅が使用されうる。図2は、小さな部分画像における幅測定結果を示す。血管幅測定に加えて、各中心線ピクセルに対する左および右の血管境界の位置が、保存されうる。これら2つのポイントを使用し、血管を交差するプロファイルが定義され、次いで、血管の交差から特性データを抽出するために用いられうる。図4は、測定直径および幅測定値を得た場所での交差血管を示す眼底写真の詳細である。白いドットは、測定を得た場所での血管上のポイントを指す。
さらなる態様において、グラフに基づく手法が、血管境界の描写に用いられうる。血管中心線画像は、血管らしさ(vesselness)マップに由来し、血管の2つの境界は、次いで、血管ピクセル明度の一次導関数を、2−スライス3次元面区分化問題へと変換することにより、同時に区分化されうる。網膜画像において、血液カラムの境界は、血管直径に対する確実なプロキシを形成する。スプラットに基づく手法は確実な結果を提供するが、グラフに基づく手法は全体的に最適であると知られているため、血管境界の位置を決定するためのグラフに基づく手法は、より早く、正確に提供できる。AVR分析に加え、両方の血管境界の区分化に基づく血管幅測定の自動化された測定はまた、網膜血管の形状を定量化させることができ、これはその形状もまた、心臓血管の疾患、糖尿病および網膜疾患により影響されるからである。最終的に、血管境界の正確な測定は、たとえばねじれや血管が数珠つなぎになること等の局所的な病的血管の変化を、正確に測定されるようにしうる。
両方の境界を同時に検出するために、2−スライス3−Dグラフが作製され、2つのスライス間の平滑度制約が適用されうる。ゆえに、同時の2−D境界区分化は、2−スライス3−D面区分化問題へと変換される。この問題は、次いで、ノードに重み付けたグラフにおける最小の閉集合をコンピューターで計算する問題へとさらに転換される。
最初の区分化が、グラフを作製するために必要とされる。血管らしさ(vesselness)マップは、最初の区分化として用いられうる。一つの画像の例を、図5に示す。図5aは、カラーの眼底画像である。白い長方形は、図6において拡大され、図示のために用いられる。図5bは、対応する血管らしさ(vesselness)の画像である。グレースケール画像の閾値化により、二進法の血管区分化が作製される。(一定の)低閾値は、血管の継続性をよりよく維持するために選択されうる。その代償は、ノイズの小さな領域が適切に抑制されない可能性があることである。この問題を解決するために、所定数(たとえば、20)ピクセルより小さい面積の血管領域を、閾値化された画像から削除することができる。次いで、逐次細線化手法を、血管中心線を見つけるために、二進法血管区分化に適用することができる。別の態様において、血管幅を、血管らしさ(vesselness)マップから直接測定することができる。血管らしさ(vesselness)画像は、閾値化され、二進法血管区分化を作製することができる。例示のために、固定された190の閾値が用いられる。次いで、幅は、この二進法血管マップ上で測定されうる。
血管中心線画像から、分枝点および交差点を除外することができる。分枝点は、3つの8接続隣接ピクセルを伴う中心線ピクセルとして定義され、交差点は、4つ以上の8接続隣接ピクセルを伴う中心線ピクセルとして定義されうる。ゆえに、血管中心線画像は、3つ以上の隣接ピクセルを有する中心線ピクセルを得るために最初にスキャンされうる。分枝点および交差点を削除することにより、血管ツリーが血管区分に分けられる。もう一度画像をスキャンすることにより、これらの血管区分から、一つの隣接ピクセルのみを有する末端ポイントが見いだされる。一つのエンドポイントから始めて、他のエンドポイントに届くまで、血管区分はトレースされることができる。このような方法で、画像上のすべての血管区分がトレースされ、標識される。
標識された各血管区分に対し、各中心線ピクセルに対する増加方向が算出される。nの隣接した中心線ピクセルが、標的中心線ピクセルの両側上で用いられ、結果として得られる血管区分上で、重要な構成要素の分析が適用される。nの値は、画像サイズのパラメーターであり得、画像サイズの最初の大きさの約0.005倍である。たとえば、画像の最初の大きさが600ピクセルであった場合、nの値は、3ピクセルであり、すべての血管区分の長さは7ピクセルとなる。ある態様において、nの最小値は、2でありうる。最初の重要な構成要素は、ピクセルの増加方向に一致しうる。血管増加方向を定義するための十分な隣接中心線ピクセルを有しないエンドポイントは、血管増加方向の定義を有するもっとも近い中心線ピクセルの方向を有するように決定されうる。
血管増加方向に対し、反時計方向に90度は、このポイントに対し正常方向とみなされる。図6に示すように、ベースノードとして中心線ピクセルを用いて、正常のプラス方向上のプロファイルが、一つのスライスとして作られ、マイナス方向上のプロファイルは、他のスライスとして作られる。
図6は、血管正常プロファイルをどのようにグラフへ出力するかを図示したものである。図6aは、図5から抽出された血管の小さな区分。図6bは、図6aの血管の可能性の画像。図6cは、図6aの血管中心線の画像。図6dは、血管増加方向が算出され、血管増加方向に垂直なノード正常プロファイルが構築される。図6eは、図6dにおける赤い正常プロファイルが、赤いグラフスライスを作製するために用いられ、図6dにおける緑の正常プロファイルが、緑のグラフスライスを作製するために用いられる。黒いノードは、図6dにおける黒い中心線ピクセルに対応する、ベースノードを表す。その結果、赤いスライスは、図6dにおける一つの境界を表し、緑のスライスは、図6dにおける他の境界を表す。平滑度制約(隣接カラムの間のアークにより調整される)は、別々に適用され、一つの境界内および二つの境界間の境界平滑度を調整する。
各正常プロファイルCol(x,y)に従い、各ノードV(x,y,z)(z>0)は、ノードV(x,y,z−1)に方向づけられたアークを有する。x方向(同じ境界に沿うことを意味する)に従い、各ノードに対して、方向づけられたアークは、V(x,y,z)∈Col(x,y)からV(x+1,y,max(0,z−Δx))∈Col(x+1,y)へ構築される。同様に、V(x,y,z)∈Col(x,y)からV(x−1,y,max(0,z−Δx))∈Col(x−1,y,z)へのアークが構築される。Δxは、1つの境界内で2つの隣接する正常プロファイル間に許可される最大差異である。y方向(2つのスライス間を意味する)に従い、V(x,y,z)∈Col(x,y)からV(x,y+1,max(0,z−Δy))∈Col(x,y+1,z)へのアーク、およびV(x,y,z)∈Col(x,y)からV(x,y−1,max(0,z−Δy))∈Col(x,y−1,z)へのアークが構築される。Δyは、二つの境界間の対応する二つの正常プロファイル間で許可される最大差異である。ベースノードはすべて接続される。面は、ΔxおよびΔyで定義される平滑度制約を満たす場合、実行可能とみなされる。最適な面は、3−D容積中で定義されるすべての実行可能な面の間での最小コストを伴う面として、定義される。
コスト画像は、緑のチャネルの、方向感受性のあるガウス1D一次導関数から作製される。カラー画像の緑のチャネルは、通常、血管とバックグラウンドの間で最も高いコントラストを示す。異なる方向で、異なる位置で特定される血管の勾配を見つけるため、ガウス1D導関数を伴う離散コンボリューションが、血管増加方向に垂直な方向に沿って、適用される(図7で示される)。ガウスカーネルの導関数は、以下の数式1に示される。
ここで、σは、ガウス一次導関数における唯一のパラメーターである。図7は、例である。図7aは、緑のチャネル画像の一部分を拡大したものを示す。図7bは、方向感受性のあるガウス1D導関数の結果を示す。
Δxの値は、一つの境界内での平滑度を維持するために、1とすることができ、Δyは、中心線が、二つの端の中心に正確にはない場合に、中心線から左端、および中心線から右端の幅の間の差異を許可するために、2とすることができる。ノードに重み付けた方向のグラフが構築された後、最適面が決定されうる。血管幅を決定するために、2つのスライスからの最適面の上にある2つの対応するノードの間の座標の差異を、算出することができる。画像上の境界を示すために、最適面の上の各ノードの最も近い整数の座標が算出され、画像の上に示すことができる。

C.動脈および静脈への分類
画像の中の動脈および静脈の分離分析を可能にするために、従前に検出された血管区分が、これら2つの分類のうちの1つに割り当てられる。ある態様において、教師ありシステム(すなわち、例で訓練された)を用いることができる。訓練手順の後、分類法を、以前には見えなかった中心線ピクセルを、動脈または静脈のいずれかへ分類する(AV分類)ために、用いることができる。前処理手順および血管幅測定を、訓練セット中のすべての画像に適用することができる。専門家であれば、訓練画像のそれぞれに対し、所与の主な血管が動脈または静脈のいずれであるかを示すことができる。
訓練段階において、分類器は、中心線ピクセルの両分類間を識別するために、訓練セット中の専門家により標識された血管を用いて、訓練されることができる。訓練セット中のすべての血管が動脈または静脈としてマークされているわけではないので、マークされていない血管からの中心線ピクセルは、訓練データセット中に含まれない。訓練画像における残りのすべての中心線ピクセルに対し、一連の部分的な特性が抽出された。表Iにおいて、用いることができる例示的に抽出された特性のリストを示す。一般的に、特性は、色ならびに血管内の色変化を明らかにする。血管全体で測定されたすべての特性は、従前に決定されたようにプロファイル上で測定されることができる。
血管内の血液の明白な色は、画像間、および対象の全体で変化する。この変化には、いくつかの原因がありうる。主には、ヘモグロビン酸素飽和の量が血液カラムの反射性に影響し、この差異が、可視化される静脈血液の低い彩度と、動脈血液の高い彩度の間の差異をもたらす。次に、異なる波長に対するレンズ吸収が、加齢および白内障の発症により影響され、血液により反射された光のスペクトル分布におけるシフトをもたらす。血管の下の網膜色素上皮の色素沈着における個々の差異がまた、光反射のスペクトルに影響を与える。最後に、検査の全体において、同じ対象からであっても、フラッシュの明度、フラッシュのスペクトラム、カメラの非線形の光学的なゆがみ、フラッシュのアーチファクト、およびフォーカスにおける差異がまた、かなりのばらつきの原因となる。これらの要因が、分類を実質的に複雑化し、個々のすべての画像に対する血管のカラー特性のユニット標準偏差、およびゼロ平均への標準化が、分類を改善することができる。各中心線ピクセルに対する特性をサンプリングした後、適切なラベルが、参照標準に基づき割り当てられ、すべての訓練サンプルが訓練データセットに保存されうる。このサンプリングプロセスは、訓練セットのすべての画像に対し繰り返されることができる。
訓練セットは、次いで、別々の分類器の選択トレーニングおよび検証セットへ分けることができる。いくつかの異なる分類器(たとえば、k−Nearest Neighbor Classifier、Support Vector Machine Classifier、Linear Discriminant ClassifierまたはQuadratic Discriminant Classifier)を用いることができる。受信者動作特性(ROC)曲線のもと、面積を最大化する分類器が選択されうる。
訓練段階が完了した後、訓練された分類器を、検証セットの画像に適用することができる。すべての検証画像は、訓練画像と同様に前処理されうる。各中心線ピクセルに対し、完全な27の特性のセットが抽出されるが、より少ない、および/または異なる特性を使用することができる。訓練された分類器は、次いで、ソフトラベルl=[0…1]を割り当てるために用いられうる。ここで、0に近いラベルは、そのピクセルが動脈内であった可能性があることを意味し、1に近いラベルは、ピクセルが静脈内であった可能性を意味する。血管区分中のすべてのピクセルが、動脈または静脈内のいずれかであると仮定することができる。中心線ピクセルに割り当てられた各ソフトラベルは、完全区分のラベルに対する票とみなすことができる。全体の血管区分に対する中央ラベルを取ることを含む、多くの異なる方法において、これらの票の組み合わせを行うことができる。
部分的な画像の特徴における変化により、区分のそれぞれに割り当てられたソフトラベルは、画像の全体にわたり変化しうる。全体的な閾値は、単一の対象内で静脈から動脈を常に成功裏に分離するとは限らず、対象間で変化する。最終的な分類を実施するために、動脈と静脈は通常、対をなすという公知の事実を使用することができる。これは、ROIの領域Bにおける円内で視神経乳頭の周囲に行く場合、最初に静脈に出会った後、通常は動脈にも出会う(逆もまた然り)ことを意味する。このルールはいつも守られるわけではなく、特定の異なる血管区分に適合する血管区分を見つけることは簡単ではないため、投票手順が実行されうる。
投票手順の間、視神経乳頭の周囲およびROIの領域B内のある直径を有する円と交差する全ての血管区分が、マッチングにふさわしいものでありうる。円上で、最も近い隣接血管区分を見つけることは容易であり、円上で最も近い交差点を見つけることによって行われうる。両点のソフトAVラベルは比較することができ、そして最も高いソフトラベルを備える血管区分は「静脈」の票を受け取ることができ、その他は「動脈」の票を受けることができる。次いで、次に近い、対をなしていない血管が選択され、手順が繰り返される。この手順の結果は、開始血管区分に依存する。異なる血管区分を開始区分として選択することにより、血管区分の間のAV票の分布は、変化する。それゆえ、マッチングに適したすべての血管区分は、開始血管としていったん選択され得、マッチング手順が繰り返される。最終的に、票が数えられ、血管区分のそれぞれがハードラベルを割り当てられる(すなわち、受け取った票に基づき、動脈または静脈のいずれか)。動脈および静脈票が等しい数の血管区分は、分析から除外することができる。

D.AVRの測定
ある態様において、細動脈対細静脈の比は、
AVR=CRAE
CRVE
として定義づけられ、
ここで、CRAEは、中心網膜動脈当量(Central Retinal Artery Equivalent)であり、CRVEは、中心網膜静脈当量(Central Retinal Vein Equivalent)である。これらの数を算出するために、血管を適合させ、CRAEおよびCRVEを算出するための反復プロセスを用いることができる。最も広い6つの静脈と動脈(これらは対である必要はない)を用いることができるが、十分な測定点が利用できない場合には、幅の総数がより少なくても、用いることができる。アルゴリズム1は、例示的な実施を示す。
ある態様において、最終的な投票手順は、ある直径の円上で得られた測定値に基づき得る。ROI中のすべての血管区分が、任意の特定の直径の円と交差するチャンスは、小さい。それゆえ、投票手順およびAVR算出は、AVR ROI内の様々な直径で繰り返されるべきである(図4を参照のこと)。例示のために、DDが360ピクセルであった、0.1DDの工程において、直径は1DDから1.5DDであり、投票とAVR算出手順は、6回繰り返されうる。これは、AVR ROIを等距離にした見本であることに注意されたい。円の直径それぞれに対し、AV投票手順が実行され、部分的な血管幅が測定され、2つのベクトルに保存される。Aが動脈であり、Vが静脈である。次に、アルゴリズム1を、AVR算出のために用いることができる。結果として得られる6つのAVR値は、平均すると、完全画像に対する最終AVR推定値となる。
図8に図示される、ある態様において、動静脈比(AVR)の自動決定方法およびシステムが開示され、それらには、801での画像の受領、802での画像中の関心領域の検出、803で関心領域中の動脈および静脈の識別、804で識別された動脈および静脈に対する血管幅測定値の決定、805で血管幅測定値からの、動静脈比(AVR)の推定、が含まれる。ある態様において、AVRの減少は、疾患に対する高い傾向を示す。たとえば、「正常な」AVRからの減少、または従前のAVRからの減少である。ゆえに、本方法および本システムは、網膜および心血管系疾患の早期検出への新規定量的手法を提供する。
ある態様において、画像中の関心領域を検出することは、画像中の視神経乳頭を検出することをさらに含みうる。関心領域中の動脈および静脈を識別することは、画像の上で血管区分化を実行することを含みうる。画像の上での血管区分化の実行は、動脈または静脈ピクセルとして画像中のピクセルを分類するための、訓練された分類器の使用をさらに含み得る。
ある態様において、画像は、カラー画像、多波長の画像、光コヒーレンストモグラフィー画像のうち一つ以上でありうる。画像は、網膜、虹彩、肌、脳表面または任意の2つの異なる波長イメージングプロセスを用いて撮像された可視血管を伴う任意の組織でありうる。
訓練された分類器は、導関数、テクスチャおよび色特性のうち1つ以上を含む特性ベクトルを使用することができる。
ある態様において、識別された動脈および静脈に対し血管幅の長さを測定することは、グラフサーチ、マルチスケールピクセル特性に基づくトボガニング法およびスプラットのうち1つ以上を使用することを含む。グラフサーチは、マルチスケールコスト機能を使用することができる。マルチスケールコスト機能は、ガボール、ガウス導関数(Gaussian derivative)およびガウスカーネルの差(Difference of Gaussian kernels)を含む、ウェーブレットカーネルリフティングのいくつかの組み合わせから誘導されうる。
提示される本方法および本システムは、たとえば心臓および脳の血管造影のような、他の二次元血管画像へ適用することができる。
さらなる態様において、本方法および本システムは、疾患傾向の指標を提供するために用いることができる。本方法および本システムは、バッチ処理のための大量の画像、およびヒトの集団に対する疾患傾向の測定に適用することができる。
ある態様において、画像中の画像領域における動脈/静脈の長さを自動測定するための方法およびシステムが提示される。本方法および本システムは、画像領域を識別するために、乳頭検出、乳頭中心点測定および乳頭直径長を利用することができる。ピクセル分類および数理形態学を、動脈/静脈の長さを測定するために用いることができる。画像は、カラー画像でありうる。画像は、多波長の画像でありうる。画像は、OCT画像および多波長の画像の組み合わせでありうる。画像は、網膜、虹彩、肌、脳表面、または任意の2つの異なる波長のイメージングプロセスを用いて撮像された可視血管を伴う他の組織でありうる。
ある態様において、本方法および本システムは、動脈および静脈の長さを用いる画像中のピクセルを分類することができる。分類は、導関数、テクスチャおよびカラー特性を含む、特性ベクトルを使用することができる。カラー特性は、個別画像のそれぞれに対して、標準化することができる。例示の目的で、knn分類器またはサポートベクトル機械を、ピクセルを分類するために用いることができる。一つまたは複数の血管の中心線が、分類に割り当てられることができる。
さらなる態様において、開示される本方法に特性を供するために、部分的な血管パラメーターを正確に測定するための、方法およびシステムが開示される。さらなる態様において、本方法および本システムは、フィルターを用いて部分的な血管テクスチャパターンを測定することができる。フィルターは、たとえば、ガウス導関数、ガボールフィルター、もしくはウェーブレットフィルターに基づくフィルターバンク、またはそれらの組み合わせでありうる。フィルターは、画像サンプル、および例えばそれらの主要構成要素分析等の変換を用いて得ることができる。
よりさらなる態様において、血管全体自身を分類するために、ピクセルに基づく動脈静脈分類を血管全部へ広げるための方法およびシステムが提示される。さらなる態様において、血管境界間の網膜血管の正確な幅測定を実行するための方法およびシステムが提示される。血管境界は、グラフサーチを用いて測定することができる。グラフサーチは、マルチスケールコスト機能を用いることができる。マルチスケールコスト機能は、ガボール、ガウス導関数およびガウスカーネルの差を含む、ウェーブレットカーネルリフティングのいくつかの組み合わせから誘導することができる。境界は、トボガニング法に基づくマルチスケールピクセル特性およびスプラットを用いて測定することができる。
ある態様において、どのように血管ネットワークが接続されているかを測定するために、部分的な血管構成を分析することができる方法およびシステムが開示される。さらなる態様において、AV比を算出するために幅の長さを得る必要がある画像中の位置を測定することができる方法およびシステムが開示される。乳頭検出、乳頭中心点測定、および乳頭直径長が、画像の位置を識別するために用いることができる。特性は、すべての血管ピクセルに対し標準化されうる。特性は、すべての乳頭血管ピクセルに対し、標準化されうる。特性は、すべてのバックグラウンドピクセルに対し標準化されうる。
以下の例示は、特許請求される化合物、組成物、物品、デバイスおよび/または方法が本明細書において、どのように作製され、評価されるかについての完全な開示および記述を当業者に提供するために提示されるものであり、純粋に例示を目的としており、本方法および本システムの範囲を制限する意図はない。数字(たとえば、量、温度等)に関し、正確性を期しているが、いくつかのエラーおよび誤差が含まれうる。他で示されない限り、部は重量部であり、温度は℃または周囲温度であり、圧力は大気圧であるか、それに近いものである。
最初の実験において、65枚のデジタルカラー眼底写真を、訓練および検証のために得た。すべての画像は、アイオワ大学病院で、デジタルバック(OIS systems,Sacrament,CA)を備えた30度のツァイス眼底カメラ(Carl Zeiss Meditec,Dublin,CA)を用いて、初期の開放隅角緑内障の患者から得られた。画像は、乳頭を中心にした。画像の面積は、色平面ごとのピクセルにつき、8ビットで、2392×2048ピクセルであり、出力のためにJPEGフォーマットで保存される。AV分類コンポーネントの訓練およびアルゴリズムに対するパラメーターの決定のために、25枚のデジタルカラーの眼底写真が、ランダムに、1組65枚から選択された。残りの40画像は、検証セットに割り当てられ、完全なシステムの評価のためにのみ用いられた。
動脈静脈分類法の訓練のために、訓練セットの画像中の主要な血管を、動脈または静脈のいずれかとして、眼科医(AVD)が標識した。血管中心線のみが標識される必要があったので、正確な血管分類は必要ではなかった。標準的なペインティングプログラムを用いて、主要な血管の上に線を手で引くことにより、標識が行われた。青色および赤色が、それぞれ静脈および動脈として用いられた。
本方法の2つのコンポーネントが、検証画像、AV分類およびAVR測定で評価された。AV分類を評価するために、検証セット中の画像のそれぞれにおける血管が、眼科医(AVD)により動脈または静脈のいずれかとして手で標識された。主要な動脈および静脈が検証セット中で標識された方法とは対照的に、すべての血管のうち、AVR ROIの内側にある部分のみ(すなわち、小血管を含む)が、検証セット中で標識された。専門家が、ROI中のすべての血管を、動脈または静脈のいずれかとして標識した。
AVR参照標準をセットするために、米国ウィスコンシン州マディソンのウィスコンシン大学で開発された半自動のコンピュータープログラムが用いられた(IVAN)。2人の眼科医が、このソフトウェアを用いて検証セット中の画像を処理した。両眼科医は、ソフトウェア開発者により規定されたプロトコールを用いて、ソフトウェアの使用について指導を受けた。IVANは、半自動であり、AVR ROIの位置づけ、血管幅測定および動脈静脈分類は、手動の調整を必要とする。ヒトのオブザーバーは、分析を実行するため、画像ごとに平均で約10分かかる。ソフトウェアは、いくつかの異なるAVR測定値を出すことができる。最初の眼科医により得られた比(MDA)は、参照標準として用いられ、2番目の眼科医(AVD)の比が専門家間の変動を測定するために用いられた。
本明細書に提示される本方法およびシステムは、40枚の検証画像すべてに対し適用された。本システムは、視神経乳頭を見つけ出し、40画像すべてにおいて、AVRを成功裏に位置させた。これは、目視検査により確認され、AVR ROIは40画像すべてにおいて視神経乳頭を中心におかれた。
ヒト専門家により標識された動脈/静脈分類を比較するために、動脈をクラス0、および静脈をクラス1として、ROC分析を実施した。この分析は、血管中心線ピクセル上でのみ実施されたことに注意されたい。提案された分類システムは、各中心線ピクセルに、静脈の内側であったという尤度値を割り当てた。すなわち、0の値は、中心線ピクセルが動脈の内側にある可能性が高いことを示し、1の値は、中心線ピクセルが静脈内にある可能性が高いことを示す。ROC分析を実施し、結果として得られた曲線を図9に示す。本システムは、0.84の曲線下の領域を得た。これは、ランダムに動脈ピクセルが選ばれ、ランダムに静脈ピクセルが選ばれたとすると、本自動システムは、84%のケースで、正確に、静脈中心線ピクセルにより高い尤度を割り当てることを意味する。
本システムの、画像に動静脈比を割り当てる能力を評価するために、本システムおよび2番目のオブザーバーにより出されたAVRを、直接、参照標準と比較した。対応t検定により、参照標準と本システムの測定値の間に有意差が無いことが示された(p=0.66)。同様に、二番目のオブザーバーの測定値にも、有意差は無かった(p=0.59)。表2において、個々の画像に対する結果を示す。「参照」列は、測定値に対する参照標準を含み、「システム」は、自動システムからの出力であり、「Obs.2」は、2番目のオブザーバーからの測定値を含む。イタリック体のすべての数値は、最初と2番目の間の差異を表す。自動システムおよび2番目のオブザーバーの両方と参照標準の間の一致を視覚的に評価するために、結果を、図10において、Bland−Altmanプロットにプロットした。このグラフは、それらの間の差に対する2つのAVR測定の平均をプロットし、エラー分布および2つの方法の間の一致の分析を、視覚的にもたらした。図10は、Bland−Altmanプロットまたは自動システムおよび参照標準の間の一致(図10a)、および2番目のオブザーバーと参照標準の間の一致(図10b)を提示する。赤線は、95%限界または一致を表す。点線は、AVR測定間の差の平均を表す。
本研究は、完全自動方法は、網膜カラー画像におけるAVRを平均エラーを伴って推定でき、このエラーは、参照標準システムIVANを使用したヒト専門家と同等の平均エラーであることを示す。本自動方法はまた、網膜血管ピクセルを、動脈または静脈の部分であると、成功裏に分類した。
従前に提示された方法と比較し、AV分類に対するROC曲線下の領域は、改善が見えないように思われる。しかしながら、従前に提示された方法とは対照的に、ROIの領域Bの内側で検出されたすべての血管中心線ピクセルが分類されたことを注記しておくことが重要である。これは、オブザーバーが、それらが動脈または静脈のいずれであるのか、その元まで血管をたどることなしには判明することができなかった血管も含む。従前の方法では、眼底画像の間にある高い変動性により作り出される課題を克服するために、分類の代わりにクラスタリングを用いていた。個々の画像に対し標準化されたカラー特性の使用は、教師あり分類手法と組み合わされて、クラスタリングの使用よりも良い結果をもたらす。
表2は、各画像に対する自動システムの参照標準に関するエラーを示す。平均AVR値およびそれらの参照標準の標準偏差は、自動システムおよびオブザーバー2の間で非常に近く、統計検証は、その平均の間に有意差は無かったことを示した。にもかかわらず、自動システムによる8つのAVR測定が、参照標準と比較した場合に、0.10を超えるエラーを有する。しかしながら、これらのうち、5つが、2番目のオブザーバーにより行われた測定と比較的良い一致を示す。Bland−Altmanプロット(図10を参照のこと)は、AVR測定値間の平均差異が、0に近く、自動システムおよび2番目のオブザーバーの両方が、バイアスを有しないことを示す。自動化と2番目のオブザーバーの両方に対する一致の95%限界はまた、ほぼ同じである。しかしながら、2番目のオブザーバーは、2つの大きな異常値を有し、それが無ければ、95%限界の一致は多少、0近くに移動するであろう。
2番目の実験において、我々の方法をさらに評価するために、平均血管幅(動脈および静脈の両方)および視神経乳頭への距離の間の関連性が、600枚の合成カラー眼底画像のサンプル(それぞれは、登録および混合眼底画像の2つからなる)において測定された。
REVIEWデータベースを用いて、本方法および本システムの正確性を認証した。REVIEWデータベースの各プロファイルは15の数字からなる。シリーズ番号、画像番号、区分番号および3つのオブザーバーのそれぞれに対する4つのデータである。3つのオブザーバーは、O1、O2、およびO3で表される。各オブザーバーに対し、各端(x1、y12、およびy2)上の2つのポイントに対する4つの測定値がある。血管中心線は、各オブザーバーに対し、(x1−x22+(y1−y12として定義され、血管の幅は、(x1−x22+(y1−y22として定義される(http://ReviewDB.lincoln.ac.uk)。次いで、RSとして表される参照標準が、3つのオブザーバーの手動の結果を平均することにより、作り出される。
血管中心線は、本明細書に記述されるように決定され、RS中の中心線に位置され、RS中にも発生した血管中心線ピクセルのみが分析された。さもなければ、中心線ピクセルは無しとして標識された。
本明細書に記述される本方法および本システムは、従前の方法(1DGおよび2DGはそれぞれ、1−Dガウスモデルフィッティングおよび2−Dガウスモデルフィッティングを意味する)の結果と比較された。
600枚の登録された眼底画像のデータセット上で、この関係性を測定するために、すべての血管の血管幅が、本明細書に記述されるように得られた。一つのピクセル幅の円形の関心領域は、視神経乳頭を中心とした。各関心領域(すなわち、動脈および静脈の両方)中のすべての血管の平均幅が、次いで、グラフにプロットされ、並びに平均幅の95%信頼区間(CI)もプロットされた。乳頭から450ピクセル超の大きさの距離がある中心線ピクセルは、画像の端に近すぎた。それはすべての中心線ピクセルの2.1%未満であり、さらなる分析からは除外された。
得られた血管境界検出の品質の例を、図11に示す。低いコントラストを有する最も小さい血管上でさえ、良い性能が得られた。図11aは、CLRISデータベースからの一つの画像である。画像サイズは、2160×1440、a=4である。図11bは、図11aの画像の拡大部分である。
本明細書に提示される本方法および本システムは、表3〜表6にある他の既知のアルゴリズムと比較された。最初の3行は、オブザーバーからの手動の結果である。4〜8行は、他のアルゴリズムの結果を示す。最後の行は、開示された本方法および本システムの結果を示す。最初の列は、成功率である。対応するグラウンドトルス(ground truth)を有する各中心線ピクセルは、幅推定に関わりなく、「成功測定値」として描画する。ゆえに、意味のある推定結果をもたらす測定値ではなかったとしても、対応するグラウンドトルスプロファイルを伴うすべての測定値が含まれた。2〜3列は、「成功測定値」として標識されたすべての測定の平均および標準偏差である。4〜5列は、ポイントごとの差異の、符号付きの平均および標準偏差である。
4つのデータセットの間で、HRISデータセットは、最も高い解像度を有する(3584×2438ピクセル)。血管幅検出の性能はオブザーバーと同程度である。
CLRISデータセット画像は、2160×1440ピクセルの解像度を有する。平均血管幅およびポイントごとの差異平均は、オブザーバーの性能と非常に近い。しかし、ポイントごとの差異の標準偏差は高い。VDISデータセットは1360×1024ピクセルの解像度を有する。平均血管幅は、グラウンドトルスより0.53ピクセル小さい。KPISデータセットは、最も小さい画像解像度(288×119ピクセルおよび170×92ピクセル)を有する。
検証により、高い解像度を伴う眼底画像は、より高いσでより正確に測定できることが示される。aの最終選択は、HRISデータセットに対してはσ=7、CLRISおよびVDISに対してはσ=4、KPISに対してはσ=1である。
図12は、HRISに対する予測血管幅およびオブザーバーの測定値平均の相関関係を示す。回帰線は、オブザーバーの測定値に比較して、微細血管を伴う血管に対してより小さい長さを与え、大きな血管に対してより大きな長さを与える予測傾向を示す。各々のポイントは、一つのプロファイルを表す。赤線はy=xの直線である。黒線は、回帰直線(y=0.87x+1.56)である。
血管幅と視神経乳頭中心からの距離の相関関係を、図13に示す。全部で2,936,749の中心線ピクセルが600枚の画像から抽出された。血管が非常に複雑な構造を示す場所で、視神経乳頭中心に近いピクセルが考慮されなかった場合、平均血管幅は、20ピクセルから450ピクセルの距離まで単調な減少を示し、視神経乳頭まで300ピクセルの距離で突然の勾配変化を示す。視神経乳頭境界に近い血管に対しては、平均血管幅は約5.0ピクセル(おおよそ75ミクロン)であり、一方で視神経乳頭まで450ピクセルの距離を有する血管は、3.5ピクセル(おおよそ52.5ミクロン)の平均血管幅を有する。
図13は、血管幅と視神経乳頭までの距離の間の相関関係を図示する。黒い円は、視神経乳頭中心まで400ピクセルを示す。血管幅分析は、視神経乳頭中心から開始し、450ピクセルの距離(x軸)で終了する。y軸は、ピクセルでの血管幅を示す。緑の線は、平均血管幅である。黒の線は、95%信頼区間線である。画像解像度は約800×700ピクセルである。スケールパラメーター(J=4ピクセル)を用いた。
本明細書に提示される本方法および本システムにより、グラフに基づく手法を用いて、網膜血管境界を識別することができる。評価結果により、血管境界が正確であり、本方法および本システムが、標準網膜画像解像度の2つのデータセット上の従前のアルゴリズムよりも性能が優れていることが示される。本明細書に開示される方法およびシステムは、世界中で糖尿病性網膜症のスクリーニングプログラムで用いられている標準後極画像上の小さな血管でさえ、網膜血管境界の識別を可能にする。
結果は、距離とともに血管幅と視神経乳頭中心の間の関係性が反比例し、単調になることを示す。この方法を用いて、600人の糖尿病患者からの、平均網膜血管径と視神経乳頭からの距離の間の関係性を、確実に測定した。視神経乳頭中心に近い(約20ピクセル)血管ピクセルを除き、血管幅は、視神経乳頭から中心までの距離を考慮すると、単調な減少を示す。これは、血管容積が変化しないと仮定すると、分枝により引き起こされた可能性が最も高い。血管の数が一定に保たれていれば、視神経乳頭までの距離が増加するとともに分枝頻度が高くなり、幅減少の勾配が大きくなる。約300ピクセルの距離で、平均血管幅のわずかな勾配変化があり、これは、ここで視神経乳頭を中心にした画像が終わり、我々のデータセットに登録された窩を中心とした画像へ遷移するという事実によるところが、最も可能性が高い。
図14は、異なる解像度の血管区分上の血管幅の測定値を図示し、図14aは、HRISからの一つの検証血管区分である。血管区分の長さは173ピクセルである。図14bは、KPISからの一つの検証血管区分である。血管区分の長さは226ピクセルである。図14cは(a)の血管幅測定結果である。もし検出された端が整数の位置ではない場合、最も近い整数の座標が示される。図14dは(b)の血管幅測定結果である。もし検出された端が整数の位置でない場合、最も近い整数の座標が示される。図14eは、(a)に対する中心線への距離に関する血管明度の断面図である。黒い曲線は、血管区分における173の正常プロファイルの平均である。整数座標ではない明度は、直線的に内挿されている。赤い星は、オブザーバーによりマークされた血管区分全体にわたる平均血管幅である。緑の星は、提案された方法により測定された血管区分全体にわたる血管幅の平均である。2つの境界は反転され、1つの図に示される。図14fは、図14bに対する中心線への距離に関する血管明度の断面図である。黒い曲線は、血管区分における226の正常プロファイルの平均である。整数座標ではない明度は、直線的に内挿されている。赤い星は、オブザーバーによりマークされた血管区分全体にわたる血管幅の平均である。緑の星は、提案された方法により測定された血管区分全体にわたる血管幅の平均である。2つの境界は反転され、一つの図に示される。
提示される方法は、高いコンピューター性能を有する。2160×1440ピクセルのサイズの網膜画像に対する、血管らしさ(vesselness)マップの創作には、約110秒かかり、これは操作O(n)であり、nはピクセル数である。画像骨格化および小領域の除去には、約120秒かかり、これもまた操作O(n)である。中心線ピクセルの総数は、およそ20000ピクセル(または0.0064n)であり、血管区分の総数は160である。結果的に、グラフの長さの平均は、約125ピクセルとなる。グラフの平均サイズは、スライス数×グラフの高さ×グラフの長さであり得、この場合には45000(または0.0145n)である。画像中のすべてのグラフを作り上げるには約9秒かかる。最大流量の問題を解決するために我々が用いた方法は、偽流量アルゴリズムである。ランニングタイムはO(n3)[23]である。例示の画像中のすべてのグラフを解決するためには約41秒かかる。
グラフサーチに基づく網膜血管境界検出のための、提示される本方法および本システムは、公的に利用できる、専門家が注釈をつけた血管幅のデータセット上で認証された。有利な点は、両境界の同時検出にあり、それゆえ、一つずつ境界を検出する方法よりも、より強固なものである。両方の境界の同時検出は、たとえ一つの境界が低いコントラストまたは不鮮明であったとしても、正確な検出を可能とする。全体的に、本方法は、コスト機能中の唯一のアルゴリズムパラメーターがσであるため、強固であり、最終的な測定はσの選択に左右されない。
当業者であれば、実用的な記述が提示されていることを認識し、各機能がソフトウェア、ハードウェアまたはソフトウェアおよびハードウェアの組み合わせにより実行できることを十分に理解する。ある例示的な態様において、本方法および本システムは、図15に図示および以下に記述されるコンピューター1501を含むことができる。
図15は、本開示方法を実行するための、例示的な操作環境を図示するブロック図である。この例示的な操作環境は、操作環境の例示のみであり、使用範囲および操作環境構造の機能性についていかなる制限も提案する意図はない。操作環境は、操作環境の例示において図示される構成要素の任意の一つまたは組み合わせに関して、いかなる依存状態または必要条件を有するとも解釈されてはならない。
本方法および本システムは、非常に多くの他の汎用もしくは特殊用途のコンピューターシステム環境または機器構成とともに、操作することができる。本システムおよび本方法との使用に適用することができる、良く知られたコンピューターシステム、環境および/または機器構成の例には、パーソナルコンピューター、サーバコンピューター、ラップトップデバイスおよびマルチプロセッサシステムが含まれるが、これらに限定されない。さらなる例には、セットトップボックス、プログラム可能な家庭用電化製品、ネットワークPC、ミニコンピューター、メインフレームコンピューター、任意の上記のシステムまたはデバイス等を含む、分散コンピューター環境が含まれる。
開示された本方法および本システムのプロセスは、ソフトウェアコンポーネントにより実行することができる。開示された本システムおよび本方法は、たとえばプログラムモジュール等の一つ以上のコンピューターまたは他のデバイスにより実行される、コンピューターで実行可能な使用の指示の一般的な文脈において記載することができる。一般的に、プログラムモジュールは、特定のタスクを実行するまたは特定の抽象データ型を実装する、コンピューターコード、ルーティン、プログラム、オブジェクト、コンポーネント、データ構造等を含む。開示された本方法はまた、コミュニケーションネットワークを通じてリンクされる遠隔処理デバイスによりタスクが実行される、グリッドベースおよび分散コンピューター環境において、実行することができる。分散コンピューター環境において、プログラムモジュールは、メモリ記憶デバイスを含む、ローカルおよび遠隔コンピューターの記憶媒体の両方に設置することができる。
さらに、当業者であれば、本明細書に開示される本システムおよび本方法が、コンピューター1501の形式をとる汎用のコンピューターデバイスを介して実行されうることを理解する。コンピューター1501のコンポーネントは、一つ以上のプロセッサまたは処理ユニット1503、システムメモリ1512、およびシステムメモリ1512へのプロセッサ1503を含む様々なシステムコンポーネントに連結するシステムバス1513を含むが、これらに限定されない。マルチプル処理ユニット1503の場合、本システムは、パラレルコンピューティングを利用できる。
システムバス1513は、バス構造のいくつかの可能性のある型のうち1つ以上を表し、メモリバスまたはメモリコントローラー、周辺機器用バス、アクセラレイテッドグラフィックスポートおよびプロセッサまたは様々なバスアーキテクチャのうち任意のものを使用するローカルバスを含む。例示を目的として、そのようなアーキテクチャは、業界標準アーキテクチャ(ISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、改良ISA(EISA)バス、ビデオエレクトロニクス標準協会(VESA)ローカルバス、アクセラレイテッドグラフィックスポート(AGP)バス、および周辺機器用コンポーネントインターコネクト(PCI)、PCIエクスプレスバス、パーソナルコンピューターメモリカード業界団体(PCMCIA)、ユニバーサルシリアルバス(USB)等を含むことができる。バス1513、およびこの記述において指定されるすべてのバスはまた、有線または無線ネットワーク接続上で実行することができ、そのサブシステム(プロセッサ1503、大容量記憶装置1504、オペレーティングシステム1505、画像分析ソフトウェア1506、画像分析データ1507、ネットワークアダプター1508、システムメモリ1512、入力/出力インターフェース1510、ディスプレイアダプター1509、ディスプレイデバイス1511およびヒト機械インターフェース1502を含む)は、1つ以上の遠隔コンピューターデバイス1514a、b、cの中に物理的に分離された配置で含まれ得、この形態のバスを通じて接続され、事実上、完全な分散システムを実行する。
コンピューター1501は、一般に、様々なコンピューターで読み取り可能なメディアを含む。例示的な読み取り可能メディアは、コンピューター1501によりアクセス可能な、任意の市販メディアであることができ、たとえば、揮発性および非揮発性メディアならびにリムーバブルおよび非リムーバブルのメディアの両方を含むがこれらへの限定を意図しない。システムメモリ1512は、揮発性メモリ(たとえば、ランダムアクセスメモリ(RAM))および/または非揮発性メモリ(たとえば読み取り専用メモリ(ROM))の形態にあるコンピューター読み取り可能なメディアを含む。システムメモリ1512は、一般に、たとえば画像分析データ1507等のデータおよび/またはプログラムモジュール(たとえば、すぐにアクセス可能な、および/または現に処理ユニット1503により作動している、オペレーティングシステム1505および画像分析ソフトウェア1506等)を含む。
他の態様において、コンピューター1501はまた、他のリムーバブル/非リムーバブル、揮発性/非揮発性のコンピューター記憶媒体を含みうる。例示の目的で、図15において、コンピューター1501のための、コンピューターコード、コンピューターで読み取り可能な指示、データ構造、プログラムモジュールおよび他のデータの、非揮発性記憶を提供できる大容量記憶装置1504を図示する。たとえば、限定する意図はないが、大容量記憶装置1504は、ハードディスク、リムーバブルの磁気ディスク、リムーバブルの光学ディスク、磁気カセットもしくは他の磁気記憶装置、フラッシュメモリカード、CD−ROM、デジタル多用途ディスク(DVD)、または他の光学式記憶、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、電気的消去可能なプログラム可能な読み取り専用メモリ(EEPROM)等でありうる。
任意に、プログラムモジュールをいくつでも、大容量記憶装置1504(例示として、オペレーティングシステム1505、画像分析ソフトウェア1506を含む)上に保存することができる。オペレーティングシステム1505および画像分析ソフトウェア1506(またはそれのいくつかの組み合わせ)のそれぞれは、プログラミングの要素および画像分析ソフトウェア1506を含むことができる。画像分析データ1507はまた、大容量記憶装置1504上に保存することができる。画像分析データ1507は、当分野に既知の、任意のデータベースの1つ以上に保存することができる。そのようなデータベースの例には、DB2(登録商標)、Microsoft(登録商標)Access、Microsoft(登録商標)SQL Server、Oracle(登録商標)、mySQL、PostgreSQL等を含む。データベースはマルチプルシステムで集中または分散させることができる。
他の態様において、ユーザーはコマンドおよび情報を、入力デバイス(示さず)を介して、コンピューター1501へ入力することができる。そのような入力デバイスの例には、キーボード、ポインティングデバイス(たとえば、「マウス」)、マイクロフォン、ジョイスティック、スキャナー、たとえばグローブおよび他の体を覆う物等の触覚入力デバイス等が含まれるが、これらに限定されない。これらの、および他の入力デバイスは、システムバス1513に連結されるヒト機械インターフェース1502を介して、処理ユニット1503に接続されることができるが、他のインターフェース、およびたとえばパラレルポート、ゲームポート、IEEE1394ポート(ファイヤーポートとしても知られる)、シリアルポートまたはユニバーサルシリアルバス(USB)等のバス構造により接続されることができる。
さらなる他の態様において、ディスプレイデバイス1511はまた、インターフェース(たとえば、ディスプレイアダプター1509)を介してシステムバス1513に接続することができる。コンピューター1501は1つ以上のディスプレイアダプター1509を有することができること、およびコンピューター1501は1つ以上のディスプレイデバイス1511を有することができることが企図される。たとえば、ディスプレイデバイスは、モニター、LCD(液晶ディスプレイ)、またはプロジェクターでありうる。ディスプレイデバイス1511に加え、他の出力周辺機器は、たとえば、入力/出力インターフェース1510を介してコンピューター1501に接続することができるスピーカー(示さず)およびプリンター(示さず)等のコンポーネントを含むことができる。本方法の任意の工程および/または結果は、出力デバイスへ任意の形態で出力されることができる。そのような出力は、テクスチャ、グラフィック、アニメーション、オーディオ、触覚等を含むがこれらに限定されない、出力表示の任意の形態でありうる。
コンピューター1501は、1つ以上の遠隔コンピューターデバイス1514a、b、cへの論理的な接続を用いて、ネットワーク化された環境において操作することができる。例示の目的で、遠隔コンピューターデバイスは、パーソナルコンピューター、ポータブルコンピューター、サーバ、ルータ、ネットワークコンピューター、ピアデバイスまたは他の普遍的なネットワークノード等でありうる。コンピューター1501と遠隔コンピューターデバイス1514a、b、cの間の論理的な接続は、ローカルエリアネットワーク(LAN)および一般広域ネットワーク(WAN)を介して行うことができる。そのようなネットワーク接続は、ネットワークアダプター1508を通じうる。ネットワークアダプター1508は、有線および無線環境の両方において実装されることができる。そのようなネットワーク環境は、オフィス、企業規模のコンピューターネットワーク、イントラネットおよびインターネットにおいて従来存在しており、通常のものである。任意のタイプのネットワーク1515を使用することができる。
図示の目的で、アプリケーションプログラム、およびたとえばオペレーティングシステム1505のような他の実行可能なプログラムコンポーネントが、離散ブロックとして本明細書に図示されるが、そのようなプログラムおよびコンポーネントがコンピューターデバイス1501の異なる記憶コンポーネント中に様々な時点で存在し、コンピューターのデータプロセッサ(複数を含む)により実行されることを認識されたい。画像分析ソフトウェア1506の実行は、コンピューターで読み取り可能なメディアのいくつかの形態で保存または送信することができる。開示された方法のいずれも、コンピューターで読み取り可能なメディア上に具現化された、コンピューターで読み取り可能な指示により、実行することができる。コンピューターで読み取り可能なメディアは、コンピューターによりアクセスすることができる、任意の市販メディアでありうる。例示の目的で、コンピューターで読み取り可能なメディアは、「コンピューター記憶媒体」および「コミュニケーション媒体」を含み得るが、これらに限定する意図はない。「コンピューター記憶媒体」は、たとえばコンピューターで読み取り可能な指示、データ構造、プログラムモジュールまたは他のデータ等の、情報記憶のための任意の方法または技術において実行される、揮発性および非揮発性、ならびにリムーバブルおよび非リムーバブルメディアを含む。コンピューター記憶媒体の例示には、RAM、ROM、EEPROM、フラッシュメモリもしくは他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)もしくは他の光学記憶、磁気カセット、磁気テープ、磁気ディスク記憶もしくは他の磁気記憶デバイス、または所望の情報を記憶するために用いることができ、コンピューターによりアクセスすることができる任意の他のメディアを含むが、これらに限定されない。
本方法および本システムは、好ましい実施形態および特定の実施例に関連付けられて記述されているが、本明細書の実施形態は、すべての点において、制限ではなく、実例を意図しており、記述される特定の実施形態に範囲を制限する意図は無い。
他で明確に述べられない限り、本明細書において説明されるいかなる方法も、工程を特定の順で実行することが必要であるとみなされることは全く意図していない。したがって、方法クレームが実際に、その工程が従う順序を列挙していない場合、またはさもなければ具体的に特許請求の範囲または明細書において、その工程が特定の順序に限定されると記述していない場合において、どのような点においても、順序の暗示は全く意図していない。これは、解釈に対する、明示されていない起こりうるあらゆる根拠に当てはまり、その解釈には、工程または操作フローの配置に関する論理の問題、文法構成または句読点から導かれる明白な意味、明細書に記述される実施形態の数または形態が含まれる。
この出願全体を通じて、様々な公表文献が参照されている。これらの公表文献の開示は、本方法および本システムに付随する技術の状態をより完全に記述するために、その全体において、この出願への参照により、本明細書に援用される。
当業者であれば、様々な改変および変更が、範囲および精神から逸脱することなくなされ得ることが明確である。他の実施形態は、本明細書に開示される明細書および実践への検討から、当業者に明らかである。明細書および実施例は、例示のみとしてみなされることを意図しており、真の範囲および精神は、以下の特許請求の範囲により示される。

Claims (22)

  1. 組織における動静脈比(AVR)の自動測定方法であって、
    画像を受信することと、
    前記画像中の関心領域を検出することと、
    前記関心領域中の動脈および静脈を識別することと、
    前記識別された動脈および静脈に対する血管幅の長さを測定することであって、前記識別された動脈および静脈に対する血管幅の長さを測定することが、グラフサーチ、マルチスケールピクセル特性に基づくトボガニング法およびスプラット、ならびにプロファイルフィッティングのうち1つ以上を使用することを含むことと、および
    前記血管幅の長さから、動静脈比(AVR)を推定することと、
    を含む、方法。
  2. 前記画像中の関心領域を検出することが、前記画像中の視神経乳頭を検出することをさらに含む、請求項1に記載の方法。
  3. 前記関心領域中の動脈および静脈を識別することが、前記画像上の血管区分化を実行することを含む、請求項1に記載の方法。
  4. 前記画像上の血管区分化を実行することが、前記画像上の血管ピクセルまたは血管区分を分類するために訓練された分類器を使用することをさらに含む、請求項3に記載の方法。
  5. 前記訓練された分類器が、血管ピクセルまたは血管区分を分類するために、導関数、テクスチャおよび色特性のうち1つ以上を含む特性ベクトルを使用する、請求項4に記載の方法。
  6. 血管ピクセルまたは血管区分を分類するために、血管ツリー分析が使用される、請求項4に記載の方法。
  7. 血管ピクセルまたは血管区分を分類するために、血流が使用される、請求項4に記載の方法。
  8. AVRの減少が、疾患に対する高い傾向を示す、請求項1に記載の方法。
  9. 前記画像が、カラー画像、多波長の画像、光コヒーレンストモグラフィー画像のうち一つ以上である、請求項1に記載の方法。
  10. 前記画像が、網膜、虹彩、肌、脳表面または任意の2つの異なる波長イメージングプロセスを用いて撮像された可視血管を伴う任意の組織である、請求項1に記載の方法。
  11. 前記グラフサーチが、マルチスケールコスト機能を使用する、請求項に記載の方法。
  12. 前記マルチスケールコスト機能が、ウェーブレットカーネルリフティングの組み合わせから誘導される、請求項11に記載の方法。
  13. 動静脈比(AVR)の自動測定のためのシステムであって、
    メモリおよび
    前記メモリに連結されたプロセッサを含み、
    前記プロセッサは、
    画像を受信することと、
    前記画像中の関心領域を検出することと、
    前記関心領域中の動脈および静脈を識別することと、
    前記識別された動脈および静脈に対する血管幅の長さを測定することであって、前記識別された動脈および静脈に対する血管幅の長さを測定することが、グラフサーチ、マルチスケールピクセル特性に基づくトボガニング法およびスプラットのうち1つ以上を使用することを含むことと、および
    前記血管幅の長さから、動静脈比(AVR)を推定することと、
    を含む工程を実行するために構成される、システム。
  14. 動脈または静脈ピクセルとして、前記画像中のピクセルを分類するために訓練された分類器を使用することをさらに含む、請求項13に記載のシステム。
  15. AVRの減少が、疾患に対する高い傾向を示す、請求項13に記載のシステム。
  16. 前記画像が、網膜、虹彩、肌、脳表面または任意の2つの異なる波長イメージングプロセスを用いて撮像された可視血管を伴う任意の組織である、請求項13に記載のシステム。
  17. 前記グラフサーチ、が、マルチスケールコスト機能を使用する、請求項13に記載のシステム。
  18. 前記マルチスケールコスト機能が、ガボール、ガウス導関数(Gaussian derivative)およびガウスカーネルの差(Difference of Gaussian kernels)を含む、ウェーブレットカーネルリフティングのいくつかの組み合わせから誘導される、請求項17に記載のシステム。
  19. コンピューターで読み取り可能なメディアであって、動静脈比(AVR)の自動測定のために、そのメディア上で具現化されるコンピューターで実行可能な指示を有し、前記コンピューターで実行可能な指示が、
    メモリおよび、
    前記メモリに連結されたプロセッサを含み、
    前記プロセッサは、
    画像を受信することと、
    前記画像中の関心領域を検出することと、
    前記関心領域中の動脈および静脈を識別することと、
    前記識別された動脈および静脈に対する血管幅の長さを測定することであって、前記識別された動脈および静脈に対する血管幅の長さを測定することが、グラフサーチ、マルチスケールピクセル特性に基づくトボガニング法およびスプラットのうち1つ以上を使用することを含むことと、および
    前記血管幅の長さから、動静脈比(AVR)を推定することと、
    を含む工程を実行するために構成される、メディア。
  20. 前記関心領域中の動脈および静脈を識別することが、前記画像上の血管ピクセルまたは血管区分を分類するために訓練された分類器を使用することによって、前記画像上の血管区分化を実行することを含む、請求項19に記載のコンピューターで読み取り可能なメディア。
  21. 前記グラフサーチが、マルチスケールコスト機能を使用する、請求項19に記載のコンピューターで読み取り可能なメディア。
  22. 前記マルチスケールコスト機能が、ガボール、ガウス導関数およびガウスカーネルの差を含む、ウェーブレットカーネルリフティングのいくつかの組み合わせから誘導される、請求項21に記載のコンピューターで読み取り可能なメディア。
JP2013550644A 2011-01-20 2012-01-20 血管画像における動静脈比の自動測定 Active JP6005663B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161434551P 2011-01-20 2011-01-20
US61/434,551 2011-01-20
PCT/US2012/022111 WO2012100221A1 (en) 2011-01-20 2012-01-20 Automated determination of arteriovenous ratio in images of blood vessels

Publications (2)

Publication Number Publication Date
JP2014504523A JP2014504523A (ja) 2014-02-24
JP6005663B2 true JP6005663B2 (ja) 2016-10-12

Family

ID=46516132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013550644A Active JP6005663B2 (ja) 2011-01-20 2012-01-20 血管画像における動静脈比の自動測定

Country Status (6)

Country Link
US (3) US9924867B2 (ja)
EP (1) EP2665406B1 (ja)
JP (1) JP6005663B2 (ja)
AU (2) AU2012207076A1 (ja)
CA (1) CA2825169A1 (ja)
WO (1) WO2012100221A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10140699B2 (en) 2010-12-07 2018-11-27 University Of Iowa Research Foundation Optimal, user-friendly, object background separation
US10360672B2 (en) 2013-03-15 2019-07-23 University Of Iowa Research Foundation Automated separation of binary overlapping trees
US10410355B2 (en) 2014-03-21 2019-09-10 U.S. Department Of Veterans Affairs Methods and systems for image analysis using non-euclidean deformed graphs
US11110049B2 (en) 2017-06-23 2021-09-07 The Procter & Gamble Company Composition and method for improving the appearance of skin

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2665406B1 (en) 2011-01-20 2021-03-10 University of Iowa Research Foundation Automated determination of arteriovenous ratio in images of blood vessels
US8848996B2 (en) * 2012-02-17 2014-09-30 Siemens Medical Solutions Usa, Inc. System for suppressing vascular structure in medical images
WO2013165614A1 (en) 2012-05-04 2013-11-07 University Of Iowa Research Foundation Automated assessment of glaucoma loss from optical coherence tomography
US9861311B2 (en) * 2012-08-03 2018-01-09 Zoll Medical Corporation Arterial and venous blood metrics
US20150254850A1 (en) * 2012-09-07 2015-09-10 Aalborg Universitet System for detecting blood vessel structures in medical images
GB201302887D0 (en) * 2013-02-19 2013-04-03 Optos Plc Improvements in or relating to image processing
JP6215555B2 (ja) * 2013-03-29 2017-10-18 株式会社ニデック 眼底画像処理装置および眼底画像処理プログラム
WO2015060897A1 (en) * 2013-10-22 2015-04-30 Eyenuk, Inc. Systems and methods for automated analysis of retinal images
WO2015130663A1 (en) * 2014-02-25 2015-09-03 Oregon Health & Science University Optical coherence tomography glaucoma detection based on retinal vessel relief height
JP2017512627A (ja) * 2014-04-07 2017-05-25 ミーモ アクチエンゲゼルシャフトMimo AG 生物組織の3次元ボリュームを表す画像データを分析する方法
JP6469387B2 (ja) * 2014-08-26 2019-02-13 株式会社トプコン 眼底解析装置
EP3245632B1 (en) * 2015-01-16 2020-07-15 Koninklijke Philips N.V. Vessel lumen sub-resolution segmentation
WO2016116370A1 (en) * 2015-01-19 2016-07-28 Statumanu Icp Aps Method and apparatus for non-invasive assessment of intracranial pressure
US10115194B2 (en) 2015-04-06 2018-10-30 IDx, LLC Systems and methods for feature detection in retinal images
JP6490501B2 (ja) * 2015-06-09 2019-03-27 株式会社トプコン 眼科検査システム
JP6922151B2 (ja) * 2015-10-21 2021-08-18 株式会社ニデック 眼科解析装置、眼科解析プログラム
US10492682B2 (en) 2015-10-21 2019-12-03 Nidek Co., Ltd. Ophthalmic analysis device and ophthalmic analysis program
DE102015220768A1 (de) * 2015-10-23 2017-04-27 Siemens Healthcare Gmbh Verfahren, Vorrichtung und Computerprogramm zur visuellen Unterstützung eines Behandlers bei der Behandlung eines Zielgebietes eines Patienten
JP6753052B2 (ja) * 2015-11-02 2020-09-09 株式会社ニデック Octデータ処理装置、およびoctデータ処理プログラム
US10102633B2 (en) * 2015-11-30 2018-10-16 Hyland Switzerland Sarl System and methods of segmenting vessels from medical imaging data
US20180012359A1 (en) * 2016-07-06 2018-01-11 Marinko Venci Sarunic Systems and Methods for Automated Image Classification and Segmentation
EP3270355B1 (en) * 2017-01-27 2019-07-31 Siemens Healthcare GmbH Determining a complexity value of a stenosis or a section of a vessel
US10307050B2 (en) 2017-04-11 2019-06-04 International Business Machines Corporation Early prediction of hypertensive retinopathy
US20190014982A1 (en) * 2017-07-12 2019-01-17 iHealthScreen Inc. Automated blood vessel feature detection and quantification for retinal image grading and disease screening
US11373450B2 (en) * 2017-08-11 2022-06-28 Tectus Corporation Eye-mounted authentication system
WO2019073962A1 (ja) * 2017-10-10 2019-04-18 国立大学法人 東京大学 画像処理装置及びプログラム
CN107657612A (zh) * 2017-10-16 2018-02-02 西安交通大学 适用于智能便携设备的全自动视网膜血管分析方法及***
CN112136182A (zh) * 2017-11-16 2020-12-25 杨晓东 基于Gabor光学相干层析术血流成像的***和方法
JP7140512B2 (ja) * 2018-03-05 2022-09-21 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2019208851A (ja) * 2018-06-04 2019-12-12 株式会社ニデック 眼底画像処理装置および眼底画像処理プログラム
JP2018198968A (ja) * 2018-08-27 2018-12-20 株式会社トプコン 眼底解析装置
EP3719808A1 (en) * 2019-04-04 2020-10-07 Optos PLC Determining levels of hypertension from retinal vasculature images
US20220215553A1 (en) * 2019-05-17 2022-07-07 Voxeleron, LLC Deep learning-based segmentation of corneal nerve fiber images
CN110477852B (zh) * 2019-08-02 2024-06-18 佛山科学技术学院 一种虹膜血管成像***
KR20210023569A (ko) * 2019-08-23 2021-03-04 삼성에스디에스 주식회사 심혈관 질환 위험 인자 예측 장치 및 방법
CN111000563B (zh) * 2019-11-22 2020-12-11 北京理工大学 一种视网膜动脉静脉直径比自动测量方法及装置
WO2021106967A1 (ja) * 2019-11-29 2021-06-03 国立大学法人北海道大学 眼底画像処理装置および眼底画像処理プログラム
CN111681211B (zh) * 2020-05-18 2024-03-08 东软医疗***股份有限公司 一种血管图像处理方法及装置
US20220215534A1 (en) * 2021-01-04 2022-07-07 Shenzhen Keya Medical Technology Corporation Methods and systems for computer-assisted medical image analysis using sequential model
CN112884750B (zh) * 2021-03-04 2022-03-25 湖州点彩智能科技有限公司 一种基于gpu的素色织物折痕提取方法
CN116758309B (zh) * 2023-06-09 2024-02-27 强联智创(北京)科技有限公司 血管段分型方法、导引导管塑形方法、设备及存储介质

Family Cites Families (115)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS605663B2 (ja) 1982-12-24 1985-02-13 三菱マテリアル株式会社 タングステン基サ−メツト
US4998533A (en) 1986-07-15 1991-03-12 Winkelman James W Apparatus and method for in vivo analysis of red and white blood cell indices
US5040225A (en) 1987-12-07 1991-08-13 Gdp, Inc. Image analysis method
US4883061A (en) 1988-02-29 1989-11-28 The Board Of Trustees Of The University Of Illinois Method and apparatus for measuring the thickness of eye components
US5233517A (en) 1990-04-30 1993-08-03 Jindra Lawrence F Early glaucoma detection by Fourier transform analysis of digitized eye fundus images
JP3058680B2 (ja) 1990-11-30 2000-07-04 株式会社トプコン 眼底像処理装置
US6198532B1 (en) 1991-02-22 2001-03-06 Applied Spectral Imaging Ltd. Spectral bio-imaging of the eye
US5303709A (en) 1991-12-16 1994-04-19 Dreher Andreas W Retinal eye disease diagnostic system
US5868134A (en) 1993-09-21 1999-02-09 Kabushiki Kaisha Topcon Retinal disease analyzer
JP3407761B2 (ja) * 1993-12-24 2003-05-19 株式会社トプコン 眼底画像解析処理装置
US6104828A (en) 1994-03-24 2000-08-15 Kabushiki Kaisha Topcon Ophthalmologic image processor
US5857030A (en) 1995-08-18 1999-01-05 Eastman Kodak Company Automated method and system for digital image processing of radiologic images utilizing artificial neural networks
JP2001521422A (ja) 1997-04-17 2001-11-06 アビモ グループ リミテッド 眼の微小循環検査および処理装置
US5867251A (en) 1997-05-02 1999-02-02 The General Hospital Corp. Scanning ophthalmoscope with spatial light modulators
US6041132A (en) 1997-07-29 2000-03-21 General Electric Company Computed tomography inspection of composite ply structure
US6044181A (en) 1997-08-01 2000-03-28 Microsoft Corporation Focal length estimation method and apparatus for construction of panoramic mosaic images
JP4698831B2 (ja) 1997-12-05 2011-06-08 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド 画像変換および符号化技術
US6996549B2 (en) 1998-05-01 2006-02-07 Health Discovery Corporation Computer-aided image analysis
US6000799A (en) 1998-05-01 1999-12-14 Jozef F. Van De Velde Maxwellian view and modulation control options for the scanning laser ophthalmoscope
US6276798B1 (en) 1998-09-29 2001-08-21 Applied Spectral Imaging, Ltd. Spectral bio-imaging of the eye
US6674894B1 (en) 1999-04-20 2004-01-06 University Of Utah Research Foundation Method and apparatus for enhancing an image using data optimization and segmentation
GB9909966D0 (en) 1999-04-29 1999-06-30 Torsana Diabetes Diagnostics A Analysis of fundus images
US6714672B1 (en) 1999-10-27 2004-03-30 Canon Kabushiki Kaisha Automated stereo fundus evaluation
US6567682B1 (en) 1999-11-16 2003-05-20 Carecord Technologies, Inc. Apparatus and method for lesion feature identification and characterization
US7224357B2 (en) 2000-05-03 2007-05-29 University Of Southern California Three-dimensional modeling based on photographic images
US7104958B2 (en) * 2001-10-01 2006-09-12 New Health Sciences, Inc. Systems and methods for investigating intracranial pressure
US6453057B1 (en) 2000-11-02 2002-09-17 Retinal Technologies, L.L.C. Method for generating a unique consistent signal pattern for identification of an individual
US6744933B2 (en) 2001-01-18 2004-06-01 Siemens Corporate Research, Inc. Method for image alignment under non-uniform illumination variations
US6845260B2 (en) 2001-07-18 2005-01-18 Koninklijke Philips Electronics N.V. Automatic vessel indentification for angiographic screening
US6728561B2 (en) 2001-08-14 2004-04-27 University Of Alabama In Huntsville Multispectral image processing method, apparatus and computer program product for determining the blood oxygen saturation in a vessel
DE10151314A1 (de) 2001-10-17 2003-04-30 Zeiss Carl Jena Gmbh Ophthalmologisches Untersuchungsgerät
JP3998464B2 (ja) 2001-11-30 2007-10-24 三洋電機株式会社 映像付与装置
US7206435B2 (en) 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
US7263214B2 (en) 2002-05-15 2007-08-28 Ge Medical Systems Global Technology Company Llc Computer aided diagnosis from multiple energy images
US20040064057A1 (en) 2002-07-31 2004-04-01 Massachusetts Institute Of Technology Measuring circulating blood volume through retinal vasculometry
US20040105074A1 (en) 2002-08-02 2004-06-03 Peter Soliz Digital stereo image analyzer for automated analyses of human retinopathy
AU2002950873A0 (en) 2002-08-20 2002-09-12 Robert Sellars A device for providing multi-directional movement
WO2004021050A2 (en) 2002-08-29 2004-03-11 Kestrel Corporation Hyperspectral imaging of the human retina
US6731782B2 (en) 2002-10-02 2004-05-04 Virtualscopics, Llc Method and system for automatic identification and quantification of abnormal anatomical structures in medical images
US6830336B2 (en) 2002-11-01 2004-12-14 Inoveon Corporation Automated generation of fundus images based on processing of acquired images
US8045770B2 (en) 2003-03-24 2011-10-25 Cornell Research Foundation, Inc. System and method for three-dimensional image rendering and analysis
SG140445A1 (en) 2003-07-28 2008-03-28 Sony Corp Method and apparatus for automatically recognizing audio data
US7409587B2 (en) 2004-08-24 2008-08-05 Symantec Operating Corporation Recovering from storage transaction failures using checkpoints
WO2005038700A1 (en) 2003-10-09 2005-04-28 University Of York Image recognition
WO2005069377A1 (ja) 2004-01-19 2005-07-28 Matsushita Electric Industrial Co., Ltd. 固体撮像装置およびその製造方法
KR100764419B1 (ko) 2004-02-09 2007-10-05 강철권 불규칙패턴을 이용한 3차원형상 측정장치 및 측정방법
US7620501B2 (en) 2004-05-06 2009-11-17 Siemens Medical Solutions Usa, Inc. Artery-vein separation and vessel modeling
US7907769B2 (en) 2004-05-13 2011-03-15 The Charles Stark Draper Laboratory, Inc. Image-based methods for measuring global nuclear patterns as epigenetic markers of cell differentiation
US7242810B2 (en) 2004-05-13 2007-07-10 Proximex Corporation Multimodal high-dimensional data fusion for classification and identification
US7316512B2 (en) 2004-07-30 2008-01-08 General Electric Company Interconnect device
GB2418314A (en) 2004-09-16 2006-03-22 Sharp Kk A system for combining multiple disparity maps
US7574028B2 (en) 2004-11-23 2009-08-11 Carestream Health, Inc. Method for recognizing projection views of radiographs
US7301644B2 (en) 2004-12-02 2007-11-27 University Of Miami Enhanced optical coherence tomography for anatomical mapping
US7372996B2 (en) 2004-12-27 2008-05-13 Trw Automotive U.S. Llc Method and apparatus for determining the position of a vehicle seat
US7715597B2 (en) 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US7474775B2 (en) 2005-03-31 2009-01-06 University Of Iowa Research Foundation Automatic detection of red lesions in digital color fundus photographs
US7232240B2 (en) 2005-05-06 2007-06-19 Northrop Grumann Corporation Extended source laser illuminator
WO2006128302A1 (en) 2005-06-02 2006-12-07 The Medipattern Corporation System and method of computer-aided detection
US7995810B2 (en) 2005-06-24 2011-08-09 The University Of Iowa Research Foundation System and methods for image segmentation in n-dimensional space
US8098907B2 (en) 2005-07-01 2012-01-17 Siemens Corporation Method and system for local adaptive detection of microaneurysms in digital fundus images
US7343032B2 (en) 2005-09-01 2008-03-11 Fujifilm Corporation Method and apparatus for automatic and dynamic vessel detection
US7914451B2 (en) 2005-09-15 2011-03-29 Innervision Medical Technologies Inc. Determining attributes using ultrasound
US8023739B2 (en) 2005-09-27 2011-09-20 Battelle Memorial Institute Processes, data structures, and apparatuses for representing knowledge
JP4958254B2 (ja) * 2005-09-30 2012-06-20 興和株式会社 画像解析システム、及び画像解析プログラム
US20070092864A1 (en) 2005-09-30 2007-04-26 The University Of Iowa Research Foundation Treatment planning methods, devices and systems
US7524061B2 (en) * 2005-10-12 2009-04-28 Siemens Corporate Research, Inc. System and method for robust optic disk detection in retinal images using vessel structure and radon transform
GB0522968D0 (en) 2005-11-11 2005-12-21 Popovich Milan M Holographic illumination device
US8094928B2 (en) 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
WO2007065221A1 (en) 2005-12-07 2007-06-14 Commonwealth Scientific And Industrial Research Organisation Linear feature detection method and apparatus
KR100727033B1 (ko) 2005-12-07 2007-06-12 한국전자통신연구원 네트워크 기반 지능형 서비스 로봇의 비전 처리 장치 및방법과 이를 이용한 시스템
US8150155B2 (en) 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
DE102006010105A1 (de) 2006-02-28 2007-08-30 Carl Zeiss Meditec Ag Ophthalmologisches Gerät
WO2007118079A2 (en) 2006-04-03 2007-10-18 University Of Iowa Research Foundation Methods and systems for optic nerve head segmentation
DE102006018445B4 (de) 2006-04-18 2008-04-24 Imedos Gmbh Vorrichtung und Verfahren zur Bestimmung arterio-venöser Verhältniswerte durch quantitative Analyse retinaler Gefäße
TW200741417A (en) 2006-04-26 2007-11-01 Aopen Inc Computer chassis structure that allows to be unfolded into components in sheet shape for easy assembly
US8249334B2 (en) 2006-05-11 2012-08-21 Primesense Ltd. Modeling of humanoid forms from depth maps
JP2008022929A (ja) * 2006-07-19 2008-02-07 Gifu Univ 画像解析装置及び画像解析プログラム
EP2052355A2 (en) * 2006-08-11 2009-04-29 Koninklijke Philips Electronics N.V. Methods and apparatus to integrate systematic data scaling into genetic algorithm-based feature subset selection
JP5844510B2 (ja) 2006-09-26 2016-01-20 オレゴン ヘルス アンド サイエンス ユニヴァーシティ 生体環境中での構造および流れの撮像
EP2618102A2 (en) 2006-11-21 2013-07-24 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
GB0708676D0 (en) 2007-05-04 2007-06-13 Imec Inter Uni Micro Electr A Method for real-time/on-line performing of multi view multimedia applications
WO2008150840A1 (en) 2007-05-29 2008-12-11 University Of Iowa Research Foundation Methods and systems for determining optimal features for classifying patterns or objects in images
WO2008157406A1 (en) 2007-06-15 2008-12-24 University Of Southern California Pattern analysis of retinal maps for diagnosis of optic nerve diseases by optical coherence tomography
CA2693666A1 (en) 2007-07-12 2009-01-15 Izzat H. Izzat System and method for three-dimensional object reconstruction from two-dimensional images
US8090173B2 (en) 2007-11-27 2012-01-03 Siemens Medical Solutions Usa, Inc. System and method for blood vessel bifurcation detection in thoracic CT scans
JP2009151896A (ja) 2007-12-21 2009-07-09 Sony Corp 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム
SG191664A1 (en) * 2008-04-08 2013-07-31 Univ Singapore Retinal image analysis systems and methods
US8194936B2 (en) 2008-04-25 2012-06-05 University Of Iowa Research Foundation Optimal registration of multiple deformed images using a physical model of the imaging distortion
WO2009148067A1 (ja) * 2008-06-04 2009-12-10 株式会社 網膜情報診断研究所 網膜情報診断システム
US7941462B2 (en) 2008-09-24 2011-05-10 Toshiba Medical Visualization Systems Europe, Limited Method and apparatus for classification of coronary artery image data
FR2937530B1 (fr) 2008-10-24 2012-02-24 Biospace Med Mesure de grandeurs geometriques intrinseques a un systeme anatomique
US8482654B2 (en) 2008-10-24 2013-07-09 Reald Inc. Stereoscopic image format with depth information
WO2010099289A1 (en) 2009-02-25 2010-09-02 University Of Iowa Research Foundation Hybrid laser ophthalmoscope
AU2010220015A1 (en) 2009-03-03 2010-09-10 Fujifilm Corporation Image processing device and method, and program
AU2009201637B2 (en) 2009-04-24 2011-08-11 Canon Kabushiki Kaisha Processing multi-view digital images
JP5578735B2 (ja) * 2009-05-13 2014-08-27 国立大学法人九州工業大学 血流画像診断装置
US9679389B2 (en) 2009-05-19 2017-06-13 Algotec Systems Ltd. Method and system for blood vessel segmentation and classification
US8494243B2 (en) 2009-07-29 2013-07-23 Siemens Aktiengesellschaft Deformable 2D-3D registration of structure
KR20110064197A (ko) 2009-12-07 2011-06-15 삼성전자주식회사 물체 인식 시스템 및 그 물체 인식 방법
US9082159B2 (en) 2010-10-07 2015-07-14 Siemens Aktiengesellschaft Non-rigid composition of multiple overlapping medical imaging volumes
WO2012078636A1 (en) 2010-12-07 2012-06-14 University Of Iowa Research Foundation Optimal, user-friendly, object background separation
US20150379708A1 (en) 2010-12-07 2015-12-31 University Of Iowa Research Foundation Methods and systems for vessel bifurcation detection
EP2665406B1 (en) 2011-01-20 2021-03-10 University of Iowa Research Foundation Automated determination of arteriovenous ratio in images of blood vessels
US20140035909A1 (en) 2011-01-20 2014-02-06 University Of Iowa Research Foundation Systems and methods for generating a three-dimensional shape from stereo color images
EP2671168A4 (en) 2011-02-03 2017-03-08 Voxeleron LLC Method and system for image analysis and interpretation
WO2012114600A1 (ja) 2011-02-22 2012-08-30 オリンパスメディカルシステムズ株式会社 医用画像処理装置及び医用画像処理方法
JP5263995B2 (ja) 2011-03-18 2013-08-14 富士フイルム株式会社 ネットワーク構築装置および方法ならびにプログラム
JP2012223338A (ja) 2011-04-19 2012-11-15 Fujifilm Corp 木構造作成装置および方法ならびにプログラム
JP5701138B2 (ja) 2011-04-19 2015-04-15 富士フイルム株式会社 医用画像処理装置および方法、並びにプログラム
JP5391229B2 (ja) 2011-04-27 2014-01-15 富士フイルム株式会社 木構造抽出装置および方法ならびにプログラム
GB201201230D0 (en) 2012-01-25 2012-03-07 Univ Delft Tech Adaptive multi-dimensional data decomposition
US9536338B2 (en) 2012-07-31 2017-01-03 Microsoft Technology Licensing, Llc Animating objects using the human body
JP5833994B2 (ja) 2012-09-20 2015-12-16 富士フイルム株式会社 画像処理装置および方法ならびにプログラム
US9307926B2 (en) 2012-10-05 2016-04-12 Volcano Corporation Automatic stent detection
WO2014143891A1 (en) 2013-03-15 2014-09-18 University Of Iowa Research Foundation Automated separation of binary overlapping trees

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10140699B2 (en) 2010-12-07 2018-11-27 University Of Iowa Research Foundation Optimal, user-friendly, object background separation
US10360672B2 (en) 2013-03-15 2019-07-23 University Of Iowa Research Foundation Automated separation of binary overlapping trees
US10410355B2 (en) 2014-03-21 2019-09-10 U.S. Department Of Veterans Affairs Methods and systems for image analysis using non-euclidean deformed graphs
US11110049B2 (en) 2017-06-23 2021-09-07 The Procter & Gamble Company Composition and method for improving the appearance of skin

Also Published As

Publication number Publication date
US11638522B2 (en) 2023-05-02
EP2665406A4 (en) 2016-04-13
AU2016210680A1 (en) 2016-08-18
US20190059718A1 (en) 2019-02-28
US12035971B2 (en) 2024-07-16
US20120236259A1 (en) 2012-09-20
AU2016210680B2 (en) 2019-06-13
US20230255478A1 (en) 2023-08-17
WO2012100221A1 (en) 2012-07-26
AU2012207076A1 (en) 2013-08-15
JP2014504523A (ja) 2014-02-24
CA2825169A1 (en) 2012-07-26
EP2665406A1 (en) 2013-11-27
US9924867B2 (en) 2018-03-27
EP2665406B1 (en) 2021-03-10

Similar Documents

Publication Publication Date Title
JP6005663B2 (ja) 血管画像における動静脈比の自動測定
Zhao et al. Retinal vessel segmentation: An efficient graph cut approach with retinex and local phase
Niemeijer et al. Automated measurement of the arteriolar-to-venular width ratio in digital color fundus photographs
JP4909377B2 (ja) 画像処理装置及びその制御方法、コンピュータプログラム
Zhao et al. Automated vessel segmentation using infinite perimeter active contour model with hybrid region information with application to retinal images
Annunziata et al. A fully automated tortuosity quantification system with application to corneal nerve fibres in confocal microscopy images
Abràmoff et al. Retinal imaging and image analysis
Hassan et al. Joint segmentation and quantification of chorioretinal biomarkers in optical coherence tomography scans: A deep learning approach
JP5631339B2 (ja) 画像処理装置、画像処理方法、眼科装置、眼科システム及びコンピュータプログラム
Xiao et al. Major automatic diabetic retinopathy screening systems and related core algorithms: a review
US11854199B2 (en) Methods and systems for ocular imaging, diagnosis and prognosis
US11883099B2 (en) Noninvasive techniques for identifying choroidal neovascularization in retinal scans
Xu et al. Automated geographic atrophy segmentation for SD-OCT images based on two-stage learning model
Li et al. Retinal vessel detection and measurement for computer-aided medical diagnosis
Abràmoff Image processing
Padmasini et al. State-of-the-art of level-set methods in segmentation and registration of spectral domain optical coherence tomographic retinal images
Marques et al. Automatic segmentation of the optic nerve head region in optical coherence tomography: A methodological review
Sidhu et al. Segmentation of retinal blood vessels by a novel hybrid technique-Principal Component Analysis (PCA) and Contrast Limited Adaptive Histogram Equalization (CLAHE)
Zhang et al. A fully automated pipeline of extracting biomarkers to quantify vascular changes in retina-related diseases
Iorga et al. Tortuosity as an Indicator of the Severity of Diabetic Retinopathy
US12051196B2 (en) Methods and systems for ocular imaging, diagnosis and prognosis
Huang et al. Vascular biomarkers for diabetes and diabetic retinopathy screening
JP5624532B2 (ja) 画像処理装置、画像処理方法、眼科システム及びコンピュータプログラム
Escobar et al. A proposal to measure the similarity between retinal vessel segmentations images
Al-Waisy et al. CellsDeepNet: A Novel Deep Learning-Based Web Application for the Automated Morphometric Analysis of Corneal Endothelial Cells. Mathematics 2022, 10, 320

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151109

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160907

R150 Certificate of patent or registration of utility model

Ref document number: 6005663

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250