JP6619732B2 - 顕微鏡画像内の個々の細胞を分類および識別するための方法およびシステム - Google Patents

顕微鏡画像内の個々の細胞を分類および識別するための方法およびシステム Download PDF

Info

Publication number
JP6619732B2
JP6619732B2 JP2016522089A JP2016522089A JP6619732B2 JP 6619732 B2 JP6619732 B2 JP 6619732B2 JP 2016522089 A JP2016522089 A JP 2016522089A JP 2016522089 A JP2016522089 A JP 2016522089A JP 6619732 B2 JP6619732 B2 JP 6619732B2
Authority
JP
Japan
Prior art keywords
image
module
rules
filters
applying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016522089A
Other languages
English (en)
Other versions
JP2016534709A (ja
JP2016534709A5 (ja
Inventor
アブルム アイザック コーエン,
アブルム アイザック コーエン,
ディフイ ホン,
ディフイ ホン,
Original Assignee
モレキュラー デバイシーズ, エルエルシー
モレキュラー デバイシーズ, エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by モレキュラー デバイシーズ, エルエルシー, モレキュラー デバイシーズ, エルエルシー filed Critical モレキュラー デバイシーズ, エルエルシー
Publication of JP2016534709A publication Critical patent/JP2016534709A/ja
Publication of JP2016534709A5 publication Critical patent/JP2016534709A5/ja
Application granted granted Critical
Publication of JP6619732B2 publication Critical patent/JP6619732B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19167Active pattern learning
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • C12M1/34Measuring or testing with condition measuring or sensing means, e.g. colony counters
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12QMEASURING OR TESTING PROCESSES INVOLVING ENZYMES, NUCLEIC ACIDS OR MICROORGANISMS; COMPOSITIONS OR TEST PAPERS THEREFOR; PROCESSES OF PREPARING SUCH COMPOSITIONS; CONDITION-RESPONSIVE CONTROL IN MICROBIOLOGICAL OR ENZYMOLOGICAL PROCESSES
    • C12Q1/00Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions
    • C12Q1/02Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions involving viable microorganisms
    • C12Q1/04Determining presence or kind of microorganism; Use of selective media for testing antibiotics or bacteriocides; Compositions containing a chemical indicator therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/42Imaging image digitised, -enhanced in an image processor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Organic Chemistry (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Proteomics, Peptides & Aminoacids (AREA)
  • Biotechnology (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Microbiology (AREA)
  • Biochemistry (AREA)
  • Genetics & Genomics (AREA)
  • Analytical Chemistry (AREA)
  • Toxicology (AREA)
  • Biophysics (AREA)
  • Immunology (AREA)
  • Geometry (AREA)
  • Databases & Information Systems (AREA)
  • Medicinal Chemistry (AREA)
  • Sustainable Development (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)

Description

(関連出願)
本願は、2013年10月28日に出願された、米国仮特許出願第61/896,282号の利益を主張するものであり、該仮特許出願の内容は、その全体が本明細書中に援用される。
本発明は、画像の処理に関し、より具体的には、顕微鏡画像内の個々の細胞の識別に関する。
生物学的サンプルの顕微鏡画像は、背景に対して、種々の細胞タイプおよび残骸を含み得る。研究者は、顕微鏡画像内に存在する、特定のタイプの細胞の統計を得ることを所望し得る。そのような統計は、画像内に存在する特定の細胞タイプの細胞数のカウント、そのような細胞のサイズの範囲、ならびにそのような細胞のサイズの平均値、中央値、および最頻値を含んでもよい。任意のそのような統計が、計算され得る前に、顕微鏡画像内の特定の細胞タイプの細胞は、顕微鏡画像内に存在する他の細胞タイプから、また、顕微鏡画像内に存在する任意の残骸からも識別されなければならない。
さらに、細胞のサイズを測定するために、そのような細胞の境界が、識別される必要があり得る。画像内の特定のタイプの全細胞の中心および境界を手動で識別するのは、時間がかかり、研究者側の疲労および誤差につながり得る。さらに、複数の顕微鏡画像内の細胞を識別および測定するために要求される時間量は、実行可能ではない場合があり、したがって、実施され得る研究のタイプを限定し得る。
エッジ検出方法が、画像内のオブジェクトのエッジを識別するために使用されている。しかしながら、そのような方法は、特定の細胞タイプの細胞の画像であるオブジェクトと、残骸または非関心細胞タイプの細胞とを区別し得ない。加えて、そのような技法は、細胞の集密的(すなわち、隣接または重複する)集合を含む画像内の個々の細胞を識別する際、効果的ではない場合がある。そのようなエッジ検出技法は、例えば、そのような特徴と背景との間のコントラストが十分に大きくない場合、細胞特徴を識別する際、効果的ではない場合がある。そのようなコントラストの欠如は、例えば、染料または他のマーカーで標識されない細胞の画像内では、問題となり得る。加えて、エッジ検出方法は、細胞を他のタイプのオブジェクトから区別し得ない。さらに、エッジ検出方法は、オブジェクトを包囲するエッジ全体を検出せず、包囲されたオブジェクトの代わりに、その間に間隙を伴うエッジのセクションを示す、結果を提供し得る。
他の技法は、画像を評価し、特定のサイズおよび/または形状の「***」を識別し、そのような***とエッジ情報を組み合わせ得る。しかしながら、そのような技法は、不規則形状を良好に識別せず、***とエッジ情報の組み合わせは、典型的には、有意な付加的処理時間を要求する。グラフカットが、画像内のオブジェクトを背景から区別するために使用されてもよい。しかしながら、これは、計算集約的であって、特に、実世界画像の処理に好適ではない場合がある。
その結果、顕微鏡画像内のオブジェクトを識別および測定するための改良されたアプローチの必要性が存在する。
本発明の一側面によると、画像内の細胞を識別するコンピュータ実装方法は、画像を受信するステップと、訓練データを受信するステップとを含む。訓練データは、画像内の特定のタイプのオブジェクトと関連付けられた画素を識別する。コンピュータ実装方法はさらに、画像の複数のフィルタ処理されたバージョンを展開するステップと、訓練データおよび画像の複数のフィルタ処理されたバージョンを処理し、特定のタイプのオブジェクトと関連付けられた画素を分類するための訓練されたモデルを展開するステップとを含む。加えて、コンピュータ実装方法は、訓練されたモデルを画像に適用し、画像内の特定のタイプの複数のオブジェクトと関連付けられた画素を識別するステップを含む。
別の本発明の側面によると、画像内のオブジェクトを識別するためのシステムは、画像取得モジュールと、ユーザインターフェースモジュールと、フィルタ処理モジュールと、訓練モジュールと、細胞識別モジュールとを含む。画像取得モジュールは、画像を受信し、ユーザインターフェースモジュールは、訓練データを受信する。訓練データは、画像内の特定のタイプのオブジェクトと関連付けられた画素を識別する。フィルタ処理モジュールは、画像の複数のフィルタ処理されたバージョンを展開する。訓練モジュールは、訓練データおよび画像の複数のフィルタ処理されたバージョンを処理し、特定のタイプのオブジェクトと関連付けられた画素を分類するための訓練されたモデルを展開する。細胞識別モジュールは、訓練されたモデルを画像に適用し、画像内の特定のタイプの複数のオブジェクトと関連付けられた画素を識別する。
本発明は、例えば、以下を提供する。
(項目1)
画像内のオブジェクトと関連付けられた画素を分類するコンピュータ実装方法であって、
画像を受信するステップと、
訓練データを受信するステップであって、前記訓練データは、前記画像内の特定のタイプのオブジェクトと関連付けられた画素を識別する、ステップと、
前記画像の複数のフィルタ処理されたバージョンを展開するステップと、
前記訓練データおよび前記画像の複数のフィルタ処理されたバージョンを処理し、前記特定のタイプのオブジェクトと関連付けられた画素を分類するための訓練されたモデルを展開するステップと、
前記訓練されたモデルを前記画像に適用し、前記画像内の前記特定のタイプの複数のオブジェクトと関連付けられた画素を識別するステップと、
オブジェクトセグメント化を精緻化するための画像処理ステップと、
を含む、方法。
(項目2)
前記訓練されたモデルを適用するステップは、前記画像内の前記特定のタイプの集密的オブジェクト間の境界と関連付けられた画素を識別する、項目1に記載のコンピュータ実装方法。
(項目3)
前記特定のタイプは、生物学的細胞であり、前記訓練されたモデルを適用するステップは、前記画像内の集密的生物学的細胞間の境界と関連付けられた画素を識別する、項目1に記載のコンピュータ実装方法。
(項目4)
さらなる画像を受信するステップと、前記訓練されたモデルを前記さらなる画像に適用し、前記さらなる画像内の複数の細胞と関連付けられた画素を識別するステップとをさらに含む、項目3に記載のコンピュータ実装方法。
(項目5)
前記訓練されたモデルを前記さらなる画像に適用するステップは、前記さらなる画像の複数のフィルタ処理されたバージョンを展開するステップを含む、項目4に記載のコンピュータ実装方法。
(項目6)
前記画像の複数のフィルタ処理されたバージョンのそれぞれを展開するステップは、第1のフィルタのセットから選択されるフィルタを適用するステップを含み、
前記さらなる画像の複数のフィルタ処理されたバージョンのそれぞれを展開するステップは、第2のフィルタのセットから選択されるフィルタを適用するステップを含み、
前記第1のフィルタのセットおよび前記第2のフィルタのセットは、同じではない、
項目5に記載のコンピュータ実装方法。
(項目7)
前記訓練されたモデルを適用するステップは、ランダムフォレスト決定木アルゴリズム、神経ネットワーク、サポートベクトルマシン、およびk−平均クラスタリングアルゴリズムのうちの1つを使用するステップを含む、項目3に記載のコンピュータ実装方法。
(項目8)
前記画像のフィルタ処理されたバージョンを展開するステップは、エッジ検出フィルタ、ピーク検出フィルタ、サブサンプリングフィルタ、および平滑化演算子のうちの1つを適用するステップを含む、項目3に記載のコンピュータ実装方法。
(項目9)
前記画像内の複数の細胞と関連付けられた識別された画素によって表される細胞の数を判定するステップをさらに含む、項目3に記載のコンピュータ実装方法。
(項目10)
識別された細胞の識別された部分を拡張または精緻化し、前記細胞と関連付けられた付加的画素を選択するステップをさらに含む、項目3に記載のコンピュータ実装方法。
(項目11)
画像内のオブジェクトを識別するためのシステムであって、
画像を受信する、画像取得モジュールと、
訓練データを受信する、ユーザインターフェースモジュールであって、前記訓練データは、前記画像内の特定のタイプのオブジェクトと関連付けられた画素を識別する、ユーザインターフェースモジュールと、
前記画像の複数のフィルタ処理されたバージョンを展開する、フィルタ処理モジュールと、
前記訓練データおよび前記画像の複数のフィルタ処理されたバージョンを処理し、前記特定のタイプのオブジェクトと関連付けられた画素を分類するための訓練されたモデルを展開する、訓練モジュールと、
前記訓練されたモデルを前記画像に適用し、前記画像内の前記特定の複数のオブジェクトと関連付けられた画素を識別する、オブジェクト識別モジュールと、
分類結果を精緻化し、オブジェクトセグメント化を得る、画像処理モジュールと、
を備える、システム。
(項目12)
前記オブジェクト識別モジュールは、前記特定のタイプの集密的オブジェクト間の境界と関連付けられた画素を識別する、項目11に記載のシステム。
(項目13)
前記特定のタイプは、生物学的細胞であり、前記オブジェクト識別モジュールは、前記画像内の集密的生物学的細胞間の境界と関連付けられた画素を識別する、項目11に記載のシステム。
(項目14)
前記画像取得モジュールは、さらなる画像を受信し、細胞識別モジュールは、前記訓練されたモデルを前記さらなる画像に適用し、前記さらなる画像内の複数の細胞と関連付けられた画素を識別する、項目13に記載のシステム。
(項目15)
前記フィルタ処理モジュールは、前記さらなる画像のフィルタ処理されたバージョンを展開し、前記細胞識別モジュールは、前記さらなる画像のフィルタ処理されたバージョンを使用し、前記画像内の複数の細胞と関連付けられた画素を識別する、項目14に記載のシステム。
(項目16)
前記フィルタ処理モジュールは、第1のフィルタのセットを使用し、前記画像の複数のフィルタ処理されたバージョンを展開し、第2のフィルタのセットを使用し、前記さらなる画像の複数のフィルタ処理されたバージョンを展開し、前記第1のフィルタのセットおよび前記第2のフィルタのセットは、同じではない、項目15に記載のシステム。
(項目17)
前記オブジェクト識別モジュールは、ランダムフォレスト決定木アルゴリズム、神経ネットワーク、サポートベクトルマシン、およびk−平均クラスタリングアルゴリズムのうちの1つを使用する、項目13に記載のシステム。
(項目18)
前記フィルタ処理モジュールは、前記画像に、エッジ検出フィルタ、ピーク検出フィルタ、サブサンプリングフィルタ、および平滑化演算子のうちの1つを適用する、項目13に記載のシステム。
(項目19)
前記画像内の複数の細胞と関連付けられた識別された画素によって表される細胞の数を判定する、細胞測定モジュールをさらに備える、項目13に記載のシステム。
(項目20)
前記細胞測定モジュールは、前記画像内の複数の細胞と関連付けられた統計を計算する、項目13に記載のシステム。
図1は、オブジェクト識別システムの概略である。
図2Aおよび2Bは、図1のオブジェクト識別システムによって処理される顕微鏡画像の実施例である。
図3Aおよび3Bは、ユーザによって提供される入力を示す、図2Aおよび2Bの画像である。
図4は、図1のシステムを使用した図2Aの画像の処理から生じる画像の実施例である。
図5は、機械学習機能を訓練するために、図1のシステムによって行われる処理のフロー図である。
図6は、図5において展開される訓練されたモデルを画像に適用するために、図1のシステムによって行われる処理の別のフロー図である。
図7は、図1のシステムによって生成され得る、グラフィカルユーザインターフェースである。
図1を参照すると、1つまたはそれを上回る顕微鏡画像を処理するための細胞識別システム100は、画像源103からの画像を取得する、画像取得モジュール102を含む。画像源103は、例えば、顕微鏡、デジタルカメラ、または以前に得られた画像のリポジトリであり得る。画像取得モジュール102は、取得された画像を画像記憶104内に記憶する。
ユーザインターフェースモジュール106は、細胞識別システム100のユーザによって動作されるコンピュータ108上に画像を表示する。そのようなコンピュータ108は、細胞識別システム100からそこに伝送された情報および画像を表示するためのディスプレイを含む。コンピュータ108はまた、ユーザ選択をシステム100に提供するために、1つまたはそれを上回る入力デバイスを含む。そのような入力デバイスは、キーボード、マウス、タッチスクリーン、および同等物のうちの1つまたはそれを上回るものを含む。
ユーザは、コンピュータ108の入力デバイスを使用して、特定の細胞タイプの少なくとも1つの例示的細胞と関連付けられる、表示される画像の1つまたはそれを上回る面積を識別する。識別は、細胞中心および/または細胞境界と関連付けられる、表示される画像の画素の選択およびマーキングを含んでもよい。加えて、ユーザは、コンピュータ108の入力デバイスを使用して、いかなるオブジェクトも有していない領域(すなわち、背景)と関連付けられる、表示される画像の1つまたはそれを上回る面積を識別してもよい。ユーザはまた、コンピュータ108の入力デバイスを使用して、特定のタイプの細胞と関連付けられないオブジェクト、例えば、残骸と関連付けられる、表示される画像の1つまたはそれを上回る面積を識別してもよい。
一実施形態では、ユーザは、特定のタイプの1つの細胞と関連付けられる、表示される画像内の画素の全てを識別する。他の実施形態では、ユーザは、特定のタイプの細胞の一部(例えば、細胞中心または細胞境界)と関連付けられた画素を識別する。ユーザが、細胞と関連付けられた画素の全てを識別する場合、ユーザインターフェースモジュール106は、自動的に、識別された画素の最外画素近傍の画素を細胞の境界の開始として関連付けてもよい。いくつかの実施形態では、ユーザインターフェースモジュール106は、第1の色を伴う細胞の内部の画素をハイライトし、第2の色を伴う細胞の境界の画素をハイライトする、画像を表示し、ユーザから、そのような識別が正確であることを要求してもよい。ユーザは、識別が正しいことを肯定応答する、または細胞境界と関連付けられた画素を選択することによって、識別された細胞境界を調節してもよい。
ユーザインターフェースモジュール106は、コンピュータ108から選択を受信し、訓練データを展開し、訓練データを訓練データ記憶109内に記憶する。一実施形態では、訓練データは、画素座標およびそのような座標が関連付けられるオブジェクト分類のリストを備える。オブジェクト分類は、例えば、細胞中心、細胞エッジ、不要物、および同等物のうちの1つであってもよい。
訓練データに加え、画像分類システム100は、取得された画像のフィルタ処理されたバージョンを展開する。特に、フィルタ処理モジュール110は、取得された画像記憶104内に記憶された取得された画像を読み取り、1つまたはそれを上回る画像フィルタを取得された画像に適用する。取得された画像に適用され得るフィルタは、エッジ検出器、ピーク検出器、平滑化演算子、および同等物を含む。取得された画像および取得された画像のフィルタ処理されたバージョンは、フィルタ処理された画像記憶112内に記憶される。
加えて、フィルタ処理モジュール110は、画像をサブサンプリングする、1つまたはそれを上回るフィルタを適用してもよい。加えて、フィルタ処理モジュール110は、複数のフィルタを特定の順序で画像に適用し、フィルタ処理された画像記憶112内に記憶される、フィルタ処理された画像を展開してもよい。例えば、フィルタ処理モジュール110は、サブサンプリングフィルタを適用し、次いで、エッジ検出フィルタをサブサンプリングされた画像に適用し、結果として生じるエッジ検出され、サブサンプリングされた画像をフィルタ処理された画像記憶112内に記憶してもよい。
訓練モジュール114は、機械訓練技法を用いて、訓練データ、取得された画像、および取得された画像のフィルタ処理されたバージョンを使用し、訓練されたモデル記憶116内に記憶される、訓練されたモデルを展開する。訓練されたモデルは、例えば、細胞、細胞エッジ、背景、および同等物のうちの1つまたはそれを上回るものと関連付けられる、取得された画像内の画素を区別するために使用され得る、一式のルールを含む。そのような訓練されたモデルは、取得された画像およびそのフィルタ処理されたバージョンに適用され、取得された画像内の画素を分類してもよい。一実施形態では、訓練モジュール114は、教師あり学習を使用して、訓練されたモデルを展開する。訓練されたモデルを展開する他の方法も、当業者に明白となり得る。
一実施形態では、訓練データ内の座標毎に、訓練モジュール114は、そのような座標と関連付けられたフィルタ処理された画像記憶112内の各画像の画素の特徴の輝度または強度を評価する。例えば、訓練モジュール114は、訓練データ内の細胞中心を用いて識別された座標が、取得された画像の第1のフィルタ処理されたバージョン内の対応する画素内の第1の特定の輝度と、取得された画像の第2のフィルタ処理されたバージョン内の対応する画素内の第2の輝度と関連付けられることを判定してもよい。同様に、訓練モジュール114は、取得された画像の背景部分が、取得された画像の第1のフィルタ処理されたバージョン内の第3の輝度と、取得された画像の第2のフィルタ処理されたバージョン内の第4の輝度と関連付けられることを判定してもよい。別の実施例では、訓練モジュール114は、訓練データ内の細胞の境界と関連付けられた座標が、取得された画像のエッジ−検出フィルタ処理されたバージョン内の特定のエッジ方向またはエッジ強度と関連付けられることを判定してもよい。
このように、訓練モジュール114は、取得された画像およびフィルタ処理された画像を分析し、訓練モデル内のオブジェクト分類と、取得された画像および/またはフィルタ処理された画像内の特徴のインジケーションまたは強度を関連付け、画像に適用され、そのような画像内の画素を、例えば、細胞中心、細胞エッジ、背景、および同等物として分類し得る、一式のルールを含む、訓練されたモデルを展開する。そのようなルールは、訓練されたモデルとして、訓練されたモデル記憶116内に記憶される。いくつかの実施形態では、訓練モジュール114は、その有効性を判定するためのルールを評価する。訓練モジュール114は、各ルールを訓練データに対して適用し、そのようなルールを使用して正しく識別された訓練データ内の画素のパーセンテージを判定する。いくつかの実施形態では、生成されたルールの全てから、訓練モジュール114は、取得された画像内の画素の少なくとも所定のパーセンテージを正しく分類可能である、一式のルールを識別してもよい。そのような一式のルールは、訓練されたモデルとして、訓練されたモデル記憶116内に記憶され、残りのルールは、破棄される。一実施形態では、所定のパーセンテージは、95%である。他の所定のパーセンテージは、ユーザによって、または分類されるタイプの画像に従って、選択されてもよい。
訓練モジュール114が、それによって展開されるルールのいずれかを破棄する場合、破棄されたルールによってのみ使用される画像の任意のフィルタ処理されたバージョンは、別の画像が訓練されたモデルを使用して処理されるとき、生成される必要はない。いくつかの実施形態では、訓練モジュール114は、不必要なフィルタが適用されないように、フィルタ処理モジュールによって後続画像上に適用されるであろうフィルタを調節する。いくつかの実施形態では、訓練モジュール114は、訓練データの画素を分類するためのルールによって使用される、フィルタ処理された画像を判定し、フィルタ処理モジュール110によって使用されるフィルタのセットを適宜調節してもよい。特に、フィルタのセットは、フィルタ処理モジュール110が、後続取得された画像に、そのようなルールによって使用されるフィルタ処理された画像と関連付けられるフィルタのみを適用するように、調節される。フィルタ処理モジュール110によって適用されるフィルタのセットのそのような調節は、画像を処理するために要求される時間量を削減し得る。
一実施形態では、訓練モジュール114は、それによって展開される訓練されたモデルを取得された画像(および、フィルタ処理されたバージョン)に適用し、取得された画像の分類されたバージョンを展開する。取得された画像の分類されたバージョンは、特定のタイプの細胞の中心および境界と関連付けられる、訓練モジュールによって判定された画素を識別する(例えば、異なる色を使用する)。取得された画像の分類されたバージョンは、コンピュータ108上に表示され、ユーザは、任意の補正を行うように求められる。そのような補正は、訓練データを修正するために使用され、訓練モジュール114は、修正された訓練データを使用して、訓練されたモデルを精緻化する。いくつかの実施形態では、システム100は、新しい訓練されたモデルを修正された訓練データから展開してもよい。このように、システム100は、ユーザが満足するまで、訓練されたモデルを精緻化するように反復的に動作する。
訓練されたモデルが、展開され、訓練されたモデル記憶116内に記憶された後、訓練されたモデルは、画像取得モジュール102によって取得されたさらなる画像に対して適用され、取得された画像記憶104内に記憶されてもよい。フィルタ処理モジュール110は、訓練されたモデル記憶116内に記憶される訓練されたモデルを備えるルールによって要求される、さらなる画像のフィルタ処理されたバージョンを生成する。細胞識別モジュール(または、オブジェクト識別モジュール)118は、訓練されたモデルをさらなる画像およびさらなる画像のフィルタ処理されたバージョンに適用し、さらなる画像の画素を分類する。細胞識別モジュール118は、細胞の異なる部分と関連付けられた画素が識別される、さらなる画像のバージョンを展開してもよい。そのような画像は、それによって使用されるコンピュータ108上において、ユーザによって閲覧されてもよい。いくつかの実施形態では、細胞識別モジュール118は、識別され、分類された画素を有する、さらなる画像のバージョンを細胞測定モジュール120に提供してもよい。細胞測定モジュール120は、当業者に明白となるであろう技法を使用し、さらなる画像内に存在する細胞のカウント、そのような細胞のサイズ、およびそのような細胞と関連付けられた統計を展開してもよい。
一実施形態では、細胞測定モジュール120は、細胞に属するとして分類された隣接する画素群(本明細書では、「シード」と称される)を選択する。細胞測定モジュール120は、その後、細胞測定モジュール120が、拡張されたシードが細胞と関連付けられた全画素を含んでいることを判定するまで、付加的画素をそこに追加することによって、シードを拡張する。一実施形態では、候補画素が、シードに追加されるべきかどうかを判定するために、細胞測定モジュール120は、オリジナルシードからの候補画素の距離と調整係数を乗算し、そのような積に、オリジナルシードと、オリジナルシードと候補画素との間の画素との間の輝度変化の絶対値の累積和を加算することによって、スコアを計算する。スコアが、所定の閾値を超える場合、画素は、シードに追加されない。
調整係数は、輝度変化対距離の不均衡を平衡化するように選択される。取得された画像が、鋭エッジを有し、殆どまたは全く雑音を有していない場合、シードへの画素の追加を停止する決定は、主に、エッジと関連付けられた候補画素(すなわち、候補画素とシード内の画素の残りとの間の輝度の実質的変化)との遭遇に基づき得る。しかしながら、取得された画像が、弱エッジを有する、または実質的量の雑音を有する場合、調整係数は、拡張されたシードのサイズが、付加的画素がシードに追加されるかどうかを制御するように選択される。細胞測定モデル120は、ユーザによって供給される訓練データを分析し、訓練データ内に供給される細胞境界または細胞サイズに一致するようにシードを最良に拡張させる、調整係数を判定する。調整係数を選択する他の方法も、当業者に明白となるであろう。
第1の細胞および第2の細胞と関連付けられた第1のシードおよび第2のシードが、前述のように拡張され、候補画素が、いずれかのシードと継合され得ることが識別される場合、第1のシードおよび第2のシードと関連付けられた第1のスコアおよび第2のスコアは、前述のように、計算される。候補画素は、より低いスコアと関連付けられたシードに追加される。候補画素は、第1のスコアが第2のスコア未満であるため、第1のシードに追加されると仮定する。第1のシードは、スコアが、所定の閾値未満である第1のシードに追加するためのさらなる候補画素に対して計算されるまで、前述のように拡張し続け得る。このように、第2のシードに以前に追加された画素は、第2のシードから除去され、前述のスコア計算に従って、第1のシードに追加されてもよい。このように、2つの細胞間の均衡点にある画素は、2つの細胞間のエッジに属する画素のための最良候補として識別される。さらに、2つの細胞はそれぞれ、その独自の識別を留保する。
いくつかの実施形態では、訓練モジュール114および細胞識別モジュール118は、当業者に明白となるであろう、ランダムフォレスト決定木技法を使用して実装されてもよい。他の実施形態では、訓練モジュール114および細胞識別モジュール118は、例えば、神経ネットワーク、サポートベクトルマシン、k−平均クラスタリング、および同等物を含む、他の機械学習技法を使用して実装されてもよい。
いくつかの実施形態では、ユーザが、細胞中心のみを分類した場合、細胞中心のみ、訓練されたモデルが適用された後、識別されてもよい。そのような場合、細胞識別は、当業者に明白となるであろう、細胞拡張技法を使用して、各識別された細胞の細胞中心情報を使用し、そのような細胞をまた備える、近隣画素を選択してもよい。
図2Aは、顕微鏡画像200の実施例を図示する。顕微鏡画像200の部分202は、図2Bに拡大されて示される。図2Bを参照すると、部分202は、細胞204を含む。
図3Aおよび3Bは、ユーザがその中の例示的オブジェクトを識別した後の顕微鏡画像200を示す、画像300およびその一部302の実施例を図示する。ユーザは、細胞204の細胞中心304および細胞境界306と、背景面積308とを識別する。前述のように、細胞境界306は、ユーザが細胞204全体を識別する場合、システム100によって、自動的に導出されてもよい。
図4は、前述のように、画像200が処理された後に生じる、画像400を図示する。明白であるように、画像400全体を通して細胞402が、識別されている。
図5は、画像内の画素を分類するために使用され得る訓練されたモデルを展開するために、システム100によって行われる処理のフロー図500である。ステップ502において、画像取得モジュール102は、画像を取得し、画像を記憶する。ステップ504において、ユーザインターフェースモジュール106は、取得された画像を表示する。ステップ506において、ユーザインターフェースモジュールは、ユーザによって使用されるコンピュータ108から、少なくとも1つの細胞を伴って識別されたディスプレイ画像内の画素の識別を得て、訓練データを展開する。フィルタ処理モジュール110は、ステップ508において、取得された画像のフィルタ処理されたバージョンを生成する。ステップ510において、訓練モジュール114は、ステップ506において展開された訓練データと、ステップ508において展開された取得された画像のフィルタ処理されたバージョンとを使用し、訓練されたモデルを展開する。一実施形態では、訓練されたモデルは、取得された画像の取得され、フィルタ処理されたバージョンから訓練データを予測する、ランダムフォレスト決定木技法を使用して、最適決定木を識別することによって、展開される。いくつかの実施形態では、訓練モジュール114は、訓練されたモデルを評価し、展開され、訓練されたモデルが使用するフィルタ処理されたバージョンを判定してもよい。そのような実施形態では、フィルタ処理モジュール110のためのパラメータは、後続画像の不必要なフィルタ処理されたバージョンが展開されないように、訓練モジュール114によって、ステップ512において更新される。
図6は、訓練されたモデルを使用し、画像内の画素を分類し、そのような分類を使用し、画像内の細胞の統計を展開するために、システム100によって行われる処理のフロー図600を示す。ステップ602において、細胞識別モジュール118は、図5のステップ510において展開された、訓練されたモデルをロードする。ステップ604において、画像取得モジュール102は、分類される画像を取得する。フィルタ処理モジュール110は、ステップ606において、分類される画像のフィルタ処理されたバージョンを展開する。細胞識別モジュール118は、ステップ608において、訓練されたモデルおよび分類される画像のフィルタ処理されたバージョンを使用し、画像内の画素を分類する。ステップ610において、細胞測定モジュール120は、ステップ608において、細胞中心をカウントするために展開された画素分類を使用する。加えて、いくつかの実施形態では、細胞中心のみが、識別される場合、細胞測定モジュール120は、612において、同様に細胞に属するとして、細胞中心を囲繞する画素を分類してもよい。
ステップ614において、細胞測定モジュールは、細胞中心のカウントと、識別された細胞を伴う取得された画像の画像とを出力する。ステップ616において、画像取得モジュール102は、分類すべき任意の付加的画像が存在するかどうかを判定し、該当する場合、処理は、ステップ604に進み、さらなる画像をロードする。そうでなければ、システム100は、終了する。
図7を参照すると、画像分類システム100は、グラフィカルユーザインターフェース700をコンピュータ107のディスプレイ上に生成してもよい。グラフィカルユーザインターフェース700は、取得された画像が表示される領域702と、ソフトボタン704、706、708、および710とを含む。例示的グラフィカルユーザインターフェース700では、ユーザが、ソフトボタン704を選択し、次いで、領域702内に表示される画像の画素を選択する場合、そのような画素は、細胞内部と関連付けられるであろう。同様に、ユーザが、ソフトボタン706を選択し、次いで、領域702内に表示される画像の画素を選択する場合、選択される画素は、表示される画像の背景または他の非関心領域と関連付けられるであろう。付加的ソフトボタンが、グラフィカルユーザインターフェース700内に含まれ、ユーザが、画像の選択される画素と付加的画素を関連付けることを可能にしてもよいことは、明白であるはずである。また、ソフトボタン704または706は、ユーザが、特徴(例えば、細胞中心、細胞タイプ、細胞エッジ、残骸、および同等物)を識別することを可能にする、ポップアップメニューと関連付けられてもよく、続いて、画像内で選択される任意の画素は、識別された特徴と関連付けられたことも明白であるはずである。
ユーザが、ソフトボタン708を選択し、次いで、表示される画像の1つまたはそれを上回る画素を選択する場合、任意の選択される画素と以前に関連付けられた任意の特徴は、除去される。ユーザによるソフトボタン710の選択は、ユーザが、そのような画素と特徴を関連付けずに、画像内の画素を選択し得るように、ボタン704、706、および708の任意の選択をクリアにする。
ソフトボタン712、714、および716は、ユーザが、線幅を選択することを可能にする。例えば、ユーザが、ソフトボタン714を選択する場合、領域702内側の任意の後続選択は、例えば、1つの画素を選択し得る。ユーザが、ソフトボタン714を選択する場合、領域702内側の任意の後続選択は、例えば、3画素を選択し得る。ユーザが、ソフトボタン716を選択する場合、領域702内側の任意の後続選択は、例えば、5画素を選択し得る。
グラフィカルユーザインターフェース700はまた、ソフトボタン718を含み、本ボタンの選択は、領域702内に表示される画像の画素と、ソフトボタン704および706を使用して選択される特徴との間でユーザが行った任意の関連付けをクリアにする。
ユーザが、領域702内に表示される画像の画素と特徴の関連付けを完了した後、ユーザは、ソフトボタン720を選択し、そのような関連付けをユーザインターフェースモジュール106に提出し、訓練データを展開し、訓練データ記憶109内に記憶してもよい。いくつかの実施形態では、ユーザインターフェース700は、訓練モジュール114を呼び出し、記憶される訓練データから訓練されたモデルの展開を開始する。
システム100は、伝送光、蛍光画像、微分干渉コントラスト、位相コントラスト、明視野撮像、および同等物を含む、異なるモダリティを使用して、取得された画像内のオブジェクトを識別するために使用されてもよい。システム100は、マーカーで標識された細胞および非標識細胞の画像と併用されてもよい。さらに、訓練されたモデルは、1つのモダリティを使用して取得された画像を使用して展開されてもよく、訓練モデルは、続いて、異なるモダリティを使用して取得された画像に適用されてもよい。
システム100は、大規模画像内のオブジェクトを識別およびセグメント化し、例えば、ウニ卵を分離およびカウントするために使用されてもよい。
システム100はまた、画像内の細胞をセグメント化し、例えば、ミトコンドリアおよび同等物に対応する画像の画素を分類するために使用されてもよい。システム100は、画像内の異なる細胞集合に対応する画素を分類および区別し、例えば、ニューロンと関連付けられた画素をグリア細胞と関連付けられた画素から区別し、または生体細胞と関連付けられた画素を死細胞と関連付けられた画素から区別するために使用されてもよい。システム100は、同一画像内で集密的である、異なる集合または同一集合の細胞と関連付けられた画素を識別するために使用されてもよい。
前述のシステム100は、画像内の細胞を識別する文脈において説明されたが、そのようなシステムが、画像内の任意のタイプのオブジェクトを識別するために使用されてもよいことは、明白であるはずである。システム100は、画像内の背景、画像内の分離されたオブジェクト、ならびに集密的(または、接触する)オブジェクトを識別するために使用されることができる。さらに、システム100は、画像内の種々のタイプのオブジェクトに対応する画素を分類するために使用されてもよい。
図1−7に関連して説明される、モジュール、プロセス、サブプロセス、およびプロセスステップのうちの1つまたはそれを上回るものは、1つまたはそれを上回る電子またはデジタル制御デバイス上のハードウェア、ソフトウェア、またはハードウェアおよびソフトウェアの組み合わせによって行なわれてもよいことを理解および認識されたい。ソフトウェアは、例えば、図1−7に図式的に描写される、機能的システム、コントーラ、デバイス、構成要素、モジュール、またはサブモジュールのうちの1つまたはそれを上回るもの等、好適な電子処理構成要素またはシステム内のソフトウェアメモリ(図示せず)に常駐してもよい。ソフトウェアメモリは、論理機能(すなわち、デジタル回路またはソースコード等のデジタル形態、またはアナログ電気、音、もしくはビデオ信号等のアナログ源等のアナログ形態で実装され得る、「論理」)を実装するための実行可能命令の順序付けられたリストを含んでもよい。命令は、例えば、1つ以またはそれを上回るマイクロプロセッサ、汎用プロセッサ、プロセッサの組み合わせ、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、または特定用途向け集積回路(ASIC)を含む、処理モジュールまたはコントーラ(例えば、画像取得モジュール102、ユーザインターフェースモジュール106、フィルタ処理モジュール110、訓練モジュール114、細胞識別モジュール118、および細胞測定モジュール120)内で実行されてもよい。さらに、概略図は、機能のアーキテクチャまたは物理的レイアウトによって限定されない、物理的(ハードウェアおよび/またはソフトウェア)実装を有する、機能の論理分割を説明する。本願に説明される例示的システムは、種々の構成で実装され、単一ハードウェア/ソフトウェアユニット、または別個のハードウェア/ソフトウェアユニット内において、ハードウェア/ソフトウェア構成要素として動作してもよい。
実行可能命令は、電子システムの処理モジュールによって実行されると、電子システムに、命令を実施するように指示する、その中に記憶された命令を有する、コンピュータプログラム製品として実装されてもよい。コンピュータプログラム製品は、選択的に、命令実行システム、装置、またはデバイスから命令をフェッチし、命令を実行し得る、電子コンピュータベースのシステム、プロセッサ含有システム、または他のシステム等、命令実行システム、装置、もしくはデバイスによってまたはそれと連動して使用するために、任意の非一過性コンピュータ可読記憶媒体内で選択的に具現化されてもよい。本書の文脈では、コンピュータ可読記憶媒体は、命令実行システム、装置、またはデバイスによって、もしくはそれと連動して使用するためのプログラムを記憶し得る、任意の非一過性手段である。非一過性コンピュータ可読記憶媒体は、選択的に、例えば、電子、磁気、光学、電磁、赤外線、または半導体システム、装置、もしくはデバイスであってもよい。非一過性コンピュータ可読媒体のより具体的実施例の非包括的リストとして、1つまたはそれを上回るワイヤを有する電気接続(電子)、ポータブルコンピュータディスケット(磁気)、ランダムアクセス、すなわち、揮発性、メモリ(電子)、読取専用メモリ(電子)、消去可能プログラマブル読取専用メモリ、例えば、フラッシュメモリ(電子)、コンパクトディスクメモリ、例えば、CD−ROM、CD−R、CD−RW(光学)、およびデジタル多用途ディスクメモリ、すなわち、DVD(光学)が挙げられる。非一過性コンピュータ可読記憶媒体は、プログラムが、例えば、紙または他の媒体の光学走査を介して、電子的に捕捉され、次いで、必要に応じて、好適な様式において、コンパイル、解釈、または別様に処理され、次いで、コンピュータメモリまたは機械メモリ内に記憶され得るため、プログラムが印刷される、紙または別の好適な媒体でさえあってもよいことに留意されたい。
また、データの受信および伝送は、本書で使用されるように、2つまたはそれを上回るシステム、デバイス、構成要素、モジュール、またはサブモジュールが、いくつかのタイプの信号経路を経由して進行する信号を介して、相互と通信可能であることを意味することを理解されるであろう。信号は、第1および第2のシステム、デバイス、構成要素、モジュール、またはサブモジュール間の信号経路に沿って、第1のシステム、デバイス、構成要素、モジュール、またはサブモジュールから、第2のシステム、デバイス、構成要素、モジュール、またはサブモジュールに情報、電力、もしくはエネルギーを通信し得る、通信、電力、データ、またはエネルギー信号であってもよい。信号経路は、物理的、電気、磁気、電磁、電気化学、光学、有線、または無線接続を含んでもよい。信号経路はまた、第1および第2のシステム、デバイス、構成要素、モジュール、またはサブモジュール間に付加的システム、デバイス、構成要素、モジュール、またはサブモジュールを含んでもよい。
(産業上の可用性)
本発明の多数の修正が、前述の説明に照らして、当業者に明白となるであろう。本明細書に説明される方法およびシステムは、種々の照明条件下において、異なる顕微鏡技法を使用して取得された画像内のオブジェクト、特に、細胞を識別するために使用されてもよい。故に、本説明は、例証のみとして解釈されるべきであって、当業者が本発明を作製および使用することを可能にする目的のために、かつそれを実施する最良の形態を教示するために提示される。添付の請求項の範囲内にある、あらゆる修正に対する排他的権利が、留保される。

Claims (16)

  1. 画像内のオブジェクトに関連付けられた画素を分類するコンピュータ実装方法であって、前記コンピュータ実装方法は、
    画像を受信することと、
    訓練データを受信することであって、前記訓練データは、前記画像内の特定のタイプのオブジェクトに関連付けられた画素を識別する、ことと、
    第1の組のフィルタを前記画像に適用することによって、前記画像の複数のフィルタ処理されたバージョンを展開することと、
    前記訓練データおよび前記画像の複数のフィルタ処理されたバージョンを処理することにより、前記画像内の前記特定のタイプのオブジェクトに関連付けられた画素を分類するための訓練されたモデルを展開することであって、前記訓練されたモデルは、前記画像に適用されるべき第1の組のルールを含む、ことと、
    前記訓練されたモデルを前記画像に適用することにより、前記画像内の前記特定のタイプのオブジェクトに関連付けられた画素を識別することであって、前記訓練されたモデルを前記画像に適用することは、前記第1の組のルールの各ルールを前記画像に適用することを含む、ことと、
    前記特定のタイプのオブジェクトに関連付けられた画素を識別する際に、前記第1の組のルールの各ルールの有効性を評価することと、
    前記第1の組のルールから1つ以上のルールを選択することにより、第2の組のルールを展開することであって、各選択されたルールは、前記画像内の画素の少なくとも所定のパーセンテージを正しく分類することが可能である、ことと、
    さらなる画像に適用されるべき第2の組のフィルタを識別することであって、前記第2の組のフィルタは、前記第2の組のルールに関連付けられたフィルタのみを含む、ことと
    を含み、
    前記特定のタイプは、生物学的細胞であり、前記訓練されたモデルを適用することは、前記画像内の集密的生物学的細胞間の境界に関連付けられた画素を識別する、コンピュータ実装方法。
  2. 前記さらなる画像を受信することと、前記第2の組のルールの各ルールを前記さらなる画像に適用することにより、前記さらなる画像内の複数の細胞に関連付けられた画素を識別することとをさらに含む、請求項1に記載のコンピュータ実装方法。
  3. 前記第2の組のルールの各ルールを前記さらなる画像に適用することは、前記さらなる画像の複数のフィルタ処理されたバージョンを展開することを含む、請求項2に記載のコンピュータ実装方法。
  4. 前記画像の複数のフィルタ処理されたバージョンのそれぞれを展開することは、前記第1の組のフィルタから選択されるフィルタを適用することを含み、
    前記さらなる画像の複数のフィルタ処理されたバージョンのそれぞれを展開することは、前記第2の組のフィルタから選択されるフィルタを適用することを含み、
    前記第1の組のフィルタおよび前記第2の組のフィルタは同一ではない、請求項3に記載のコンピュータ実装方法。
  5. 前記訓練されたモデルを適用することは、ランダムフォレスト決定木アルゴリズム、神経ネットワーク、サポートベクトルマシン、k−平均クラスタリングアルゴリズムのうちの1つを使用することを含む、請求項1〜4のうちのいずれか一項に記載のコンピュータ実装方法。
  6. 前記画像のフィルタ処理されたバージョンを展開することは、エッジ検出フィルタ、ピーク検出フィルタ、サブサンプリングフィルタ、平滑化演算子のうちの1つを適用することを含む、請求項1〜5のうちのいずれか一項に記載のコンピュータ実装方法。
  7. 前記画像内の複数の細胞に関連付けられた識別された画素によって表される細胞の数を判定することをさらに含む、請求項1〜6のうちのいずれか一項に記載のコンピュータ実装方法。
  8. 識別された細胞の識別された部分を拡張または精緻化することにより、前記細胞に関連付けられた付加的画素を選択することをさらに含む、請求項1〜7のうちのいずれか一項に記載のコンピュータ実装方法。
  9. 画像内のオブジェクトを識別するためのシステムであって、前記システムは、
    画像を受信する画像取得モジュールと、
    訓練データを受信するユーザインターフェースモジュールであって、前記訓練データは、前記画像内の特定のタイプのオブジェクトに関連付けられた画素を識別する、ユーザインターフェースモジュールと、
    第1の組のフィルタを前記画像に適用することによって、前記画像の複数のフィルタ処理されたバージョンを展開するフィルタ処理モジュールと、
    前記訓練データおよび前記画像の複数のフィルタ処理されたバージョンを処理することにより、前記特定のタイプのオブジェクトに関連付けられた画素を分類するための訓練されたモデルを展開する訓練モジュールであって、前記訓練されたモデルは、前記画像に適用されるべき第1の組のルールを含む、訓練モジュールと、
    前記訓練されたモデルを前記画像に適用することにより、前記画像内の前記特定のタイプのオブジェクトに関連付けられた画素を識別するオブジェクト識別モジュールであって、前記訓練されたモデルを前記画像に適用することは、前記第1の組のルールの各ルールを前記画像に適用することを含む、オブジェクト識別モジュールと
    を備え、
    前記訓練モジュールは、前記特定のタイプのオブジェクトに関連付けられた画素を識別する際に、前記第1の組のルールの各ルールの有効性を評価し、
    前記訓練モジュールは、前記第1の組のルールから1つ以上のルールを選択することにより、第2の組のルールを展開し、各選択されたルールは、前記画像内の画素の少なくとも所定のパーセンテージを正しく分類することが可能であり、
    前記フィルタ処理モジュールは、さらなる画像に適用されるべき第2の組のフィルタを識別し、前記第2の組のフィルタは、前記第2の組のルールに関連付けられたフィルタのみを含み、
    前記特定のタイプは、生物学的細胞であり、前記オブジェクト識別モジュールは、前記画像内の集密的生物学的細胞間の境界に関連付けられた画素を識別する、システム。
  10. 前記画像取得モジュールは、前記さらなる画像を受信し、前記オブジェクト識別モジュールは、前記第2の組のルールの各ルールを前記さらなる画像に適用することにより、前記さらなる画像内の複数の細胞に関連付けられた画素を識別する、請求項9に記載のシステム。
  11. 前記フィルタ処理モジュールは、前記さらなる画像のフィルタ処理されたバージョンを展開し、前記オブジェクト識別モジュールは、前記さらなる画像のフィルタ処理されたバージョンを使用することにより、前記画像内の複数の細胞に関連付けられた画素を識別する、請求項10に記載のシステム。
  12. 前記フィルタ処理モジュールは、前記第2の組のフィルタを使用することにより、前記さらなる画像の複数のフィルタ処理されたバージョンを展開し、前記第1の組のフィルタおよび前記第2の組のフィルタは同一ではない、請求項11に記載のシステム。
  13. 前記オブジェクト識別モジュールは、ランダムフォレスト決定木アルゴリズム、神経ネットワーク、サポートベクトルマシン、k−平均クラスタリングアルゴリズムのうちの1つを使用する、請求項9に記載のシステム。
  14. 前記フィルタ処理モジュールは、前記画像に、エッジ検出フィルタ、ピーク検出フィルタ、サブサンプリングフィルタ、平滑化演算子のうちの1つを適用する、請求項9に記載のシステム。
  15. 前記画像内の複数の細胞に関連付けられた識別された画素によって表される細胞の数を判定する細胞測定モジュールをさらに備える、請求項9に記載のシステム。
  16. 前記細胞測定モジュールは、前記画像内の複数の細胞に関連付けられた統計を計算する、請求項15に記載のシステム。
JP2016522089A 2013-10-28 2014-10-14 顕微鏡画像内の個々の細胞を分類および識別するための方法およびシステム Active JP6619732B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361896282P 2013-10-28 2013-10-28
US61/896,282 2013-10-28
PCT/US2014/060417 WO2015065697A1 (en) 2013-10-28 2014-10-14 Method and system for classifying and identifying individual cells in a microscopy image

Publications (3)

Publication Number Publication Date
JP2016534709A JP2016534709A (ja) 2016-11-10
JP2016534709A5 JP2016534709A5 (ja) 2017-11-09
JP6619732B2 true JP6619732B2 (ja) 2019-12-11

Family

ID=53004937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016522089A Active JP6619732B2 (ja) 2013-10-28 2014-10-14 顕微鏡画像内の個々の細胞を分類および識別するための方法およびシステム

Country Status (6)

Country Link
US (2) US9830502B2 (ja)
EP (1) EP3063289B1 (ja)
JP (1) JP6619732B2 (ja)
KR (1) KR102273115B1 (ja)
CN (1) CN105849274B (ja)
WO (1) WO2015065697A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102359391B1 (ko) * 2016-11-08 2022-02-04 삼성전자주식회사 디바이스가 이미지를 보정하는 방법 및 그 디바이스
WO2018088794A2 (ko) * 2016-11-08 2018-05-17 삼성전자 주식회사 디바이스가 이미지를 보정하는 방법 및 그 디바이스
KR101883350B1 (ko) * 2016-11-22 2018-08-02 (주) 테크로스 샘플수 분석장치 및 방법
KR101844928B1 (ko) * 2016-11-24 2018-04-03 (주) 테크로스 샘플수 분석장치 및 방법
GB201705876D0 (en) * 2017-04-11 2017-05-24 Kheiron Medical Tech Ltd Recist
GB201705911D0 (en) 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts
JP7030423B2 (ja) 2017-04-27 2022-03-07 シスメックス株式会社 画像解析方法、装置、プログラムおよび深層学習アルゴリズムの製造方法
CN107729932B (zh) * 2017-10-10 2019-07-26 杭州智微信息科技有限公司 骨髓细胞标记方法和***
CN107977684B (zh) * 2017-12-20 2018-10-23 杭州智微信息科技有限公司 一种快速修正骨髓有核细胞分类的交互方法
KR102072445B1 (ko) * 2018-01-30 2020-02-03 서강대학교 산학협력단 마이크로웰 어레이의 이미지 분석을 위한 분석 알고리즘 형성방법
KR102237288B1 (ko) * 2018-02-07 2021-04-07 울산과학기술원 기계학습 알고리즘을 이용한 이미지 변환 방법 및 장치
US10586129B2 (en) 2018-02-21 2020-03-10 International Business Machines Corporation Generating artificial images for use in neural networks
KR20200141044A (ko) * 2018-03-07 2020-12-17 베르딕 홀딩스 피티와이 엘티디 현미경으로 생물학적 물질을 식별하는 방법
JP2019195304A (ja) 2018-05-10 2019-11-14 学校法人順天堂 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法
CN108961301B (zh) * 2018-07-12 2021-11-02 中国海洋大学 一种基于无监督逐像素分类的角毛藻图像分割方法
US10853943B2 (en) * 2018-07-31 2020-12-01 Element Ai Inc. Counting objects in images based on approximate locations
EP3608701A1 (de) * 2018-08-09 2020-02-12 Olympus Soft Imaging Solutions GmbH Verfahren zur bereitstellung wenigstens einer auswertemethode für proben
EP3629242B1 (de) * 2018-09-28 2024-07-03 Siemens Healthcare Diagnostics Inc. Verfahren zum konfigurieren einer bildauswerteeinrichtung sowie bildauswerteverfahren und bildauswerteeinrichtung
DE102018217901A1 (de) * 2018-10-18 2020-04-23 Leica Microsystems Cms Gmbh Optimierung von Arbeitsabläufen von Mikroskopen
JP7339337B2 (ja) * 2018-11-07 2023-09-05 トラスティーズ オブ タフツ カレッジ 表面を識別する原子間力顕微鏡法
KR102084682B1 (ko) 2019-01-07 2020-03-04 기초과학연구원 인공신경망을 이용한 특수 현미경 영상 생성 방법 및 영상 처리 장치
EP3951710A4 (en) 2019-03-29 2022-05-18 FUJIFILM Corporation IMAGE PROCESSING DEVICE, METHOD FOR OPERATING AN IMAGE PROCESSING DEVICE AND PROGRAM FOR OPERATING AN IMAGE PROCESSING DEVICE
CA3141859A1 (en) 2019-04-11 2020-10-15 Agilent Technologies, Inc. User interface configured to facilitate user annotation for instance segmentation within biological sample
JP7381003B2 (ja) 2019-04-26 2023-11-15 学校法人順天堂 疾患解析を支援する方法、装置、及びコンピュータプログラム、並びにコンピュータアルゴリズムを訓練する方法、装置、及びプログラム
KR102338050B1 (ko) * 2019-08-30 2021-12-13 포항공과대학교 산학협력단 주사투과전자현미경 이미지에서의 원자 구조 해석 방법
JP7242882B2 (ja) * 2019-09-27 2023-03-20 富士フイルム株式会社 情報処理装置、情報処理装置の作動方法、情報処理装置の作動プログラム
JP2021083431A (ja) 2019-11-29 2021-06-03 シスメックス株式会社 細胞解析方法、細胞解析装置、細胞解析システム、及び細胞解析プログラム
JP2023541993A (ja) * 2020-09-21 2023-10-04 モレキュラー デバイシーズ, エルエルシー 顕微鏡検査システムの性能を最適化するための撮像構成を開発する方法およびシステム
CN116431597A (zh) * 2021-12-31 2023-07-14 戴尔产品有限公司 用于训练数据分类模型的方法、电子设备和计算机程序产品
CN114418995B (zh) * 2022-01-19 2023-02-03 生态环境部长江流域生态环境监督管理局生态环境监测与科学研究中心 一种基于显微镜图像的级联藻类细胞统计方法
WO2024137382A1 (en) * 2022-12-21 2024-06-27 Nanostring Technologies, Inc. Systems and methods utilizing improved definition of cell boundaries in biological images

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996009594A1 (en) * 1994-09-20 1996-03-28 Neopath, Inc. Apparatus for automated identification of thick cell groupings on a biological specimen
US5978497A (en) 1994-09-20 1999-11-02 Neopath, Inc. Apparatus for the identification of free-lying cells
US20060269135A1 (en) 2005-03-15 2006-11-30 Ramsay Thomas E System and method for identifying objects of interest in image data
US20080292194A1 (en) * 2005-04-27 2008-11-27 Mark Schmidt Method and System for Automatic Detection and Segmentation of Tumors and Associated Edema (Swelling) in Magnetic Resonance (Mri) Images
US8295575B2 (en) * 2007-10-29 2012-10-23 The Trustees of the University of PA. Computer assisted diagnosis (CAD) of cancer using multi-functional, multi-modal in-vivo magnetic resonance spectroscopy (MRS) and imaging (MRI)
US8488863B2 (en) * 2008-11-06 2013-07-16 Los Alamos National Security, Llc Combinational pixel-by-pixel and object-level classifying, segmenting, and agglomerating in performing quantitative image analysis that distinguishes between healthy non-cancerous and cancerous cell nuclei and delineates nuclear, cytoplasm, and stromal material objects from stained biological tissue materials
US8175369B2 (en) * 2008-12-12 2012-05-08 Molecular Devices, Llc Multi-nucleated cell classification and micronuclei scoring
JP5396977B2 (ja) * 2009-04-09 2014-01-22 株式会社ニコン データ処理装置、データ処理方法およびプログラム
WO2011015952A1 (en) * 2009-08-07 2011-02-10 Medinol Ltd. Method and system for stabilizing a series of intravascular ultrasound images and extracting vessel lumen from the images
CN102175625A (zh) * 2010-11-29 2011-09-07 樊潮 一种癌细胞识别方法
US8934698B2 (en) * 2011-06-22 2015-01-13 The Johns Hopkins University System and device for characterizing cells
US8731278B2 (en) * 2011-08-15 2014-05-20 Molecular Devices, Inc. System and method for sectioning a microscopy image for parallel processing
WO2013068781A1 (en) 2011-11-08 2013-05-16 Perkinelmer Cellular Technologies Germany Gmbh Methods and apparatus for image analysis using profile weighted intensity features
US8705834B2 (en) 2011-11-08 2014-04-22 Perkinelmer Cellular Technologies Germany Gmbh Methods and apparatus for image analysis using threshold compactness features
US20130138352A1 (en) * 2011-11-30 2013-05-30 Molecular Devices, Llc System and method for determining a baseline measurement for a biological response curve
CN102682305B (zh) * 2012-04-25 2014-07-02 深圳市迈科龙医疗设备有限公司 宫颈液基细胞学自动筛查方法和***
US20130329987A1 (en) * 2012-06-11 2013-12-12 Genesis Group Inc. Video segmentation method
US9147132B2 (en) 2013-09-11 2015-09-29 Digitalglobe, Inc. Classification of land based on analysis of remotely-sensed earth images

Also Published As

Publication number Publication date
US9830502B2 (en) 2017-11-28
US20180165509A1 (en) 2018-06-14
KR20160078955A (ko) 2016-07-05
JP2016534709A (ja) 2016-11-10
WO2015065697A1 (en) 2015-05-07
EP3063289A4 (en) 2017-06-21
CN105849274B (zh) 2020-01-21
US20160259963A1 (en) 2016-09-08
US10061974B2 (en) 2018-08-28
CN105849274A (zh) 2016-08-10
KR102273115B1 (ko) 2021-07-06
EP3063289B1 (en) 2020-01-08
EP3063289A1 (en) 2016-09-07

Similar Documents

Publication Publication Date Title
JP6619732B2 (ja) 顕微鏡画像内の個々の細胞を分類および識別するための方法およびシステム
US11341375B2 (en) Image processing apparatus and method based on deep learning and neural network learning
JP5546317B2 (ja) 外観検査装置、外観検査用識別器の生成装置及び外観検査用識別器生成方法ならびに外観検査用識別器生成用コンピュータプログラム
KR101932009B1 (ko) 다중 객체 검출을 위한 영상 처리 장치 및 방법
US20150278710A1 (en) Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium
KR101969022B1 (ko) 영상 분석 장치 및 방법
CN104424482A (zh) 图像处理设备和图像处理方法
JP7477517B2 (ja) 画像分析システムおよび画像分析システムを使用する方法
JP2018142097A (ja) 情報処理装置、情報処理方法及びプログラム
CN107918767B (zh) 目标检测方法、装置、电子设备及计算机可读介质
US11334743B2 (en) System and method for image analysis of multi-dimensional data
JP2007048006A (ja) 画像処理装置および画像処理プログラム
WO2019076867A1 (en) SEMANTIC SEGMENTATION OF AN OBJECT IN AN IMAGE
KR101990123B1 (ko) 영상 분석 장치 및 방법
KR102158967B1 (ko) 영상 분석 장치, 영상 분석 방법 및 기록 매체
JP5716504B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
Sanders et al. Learning-guided automatic three dimensional synapse quantification for drosophila neurons
WO2021049119A1 (ja) 学習装置、学習方法及び学習プログラムが格納された非一時的なコンピュータ可読媒体
Parveen et al. Traffic sign detection and recognition using colour features towards intelligent vehicle/driver assistance system
JP6331914B2 (ja) アルゴリズム生成装置、アルゴリズム生成方法及びアルゴリズム生成用コンピュータプログラム
KR102044525B1 (ko) 이식 거부반응 판별 모델 생성 방법 및 장치
CN115937224A (zh) 用于实例分割的显微镜***和方法
Zhang et al. Multistage spatial property based segmentation for quantification of fluorescence distribution in cells
Gupta Automatic Number Plate Recognition Using Raspberry Pi2 in Shovel-Dumper Combination

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191115

R150 Certificate of patent or registration of utility model

Ref document number: 6619732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250