JP2021078356A - Cell analysis apparatus - Google Patents

Cell analysis apparatus Download PDF

Info

Publication number
JP2021078356A
JP2021078356A JP2019205905A JP2019205905A JP2021078356A JP 2021078356 A JP2021078356 A JP 2021078356A JP 2019205905 A JP2019205905 A JP 2019205905A JP 2019205905 A JP2019205905 A JP 2019205905A JP 2021078356 A JP2021078356 A JP 2021078356A
Authority
JP
Japan
Prior art keywords
image
region
cell
foreign matter
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019205905A
Other languages
Japanese (ja)
Inventor
倫誉 山川
Momoyo Yamakawa
倫誉 山川
隆二 澤田
Ryuji Sawada
隆二 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2019205905A priority Critical patent/JP2021078356A/en
Publication of JP2021078356A publication Critical patent/JP2021078356A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Image Analysis (AREA)

Abstract

To lighten influence such as attachment of a foreign substance when capturing pictures to improve accuracy of cell analysis.SOLUTION: One aspect of a cell analysis apparatus according to the present invention comprises: a holographic microscope (10); image creation units (23, 24) which create a phase image and an intensity image corresponding to the same imaging range on the basis of hologram data acquired by observing a cell by the holographic microscope; a foreign substance region identification unit (25) which identifies a foreign substance region in which a foreign substance is present in the intensity image; and cell information acquisition units (26, 27) which acquire information related to a cell present in a region from which the foreign substance region identified by the foreign substance region identification unit in the phase image has been removed.SELECTED DRAWING: Figure 1

Description

本発明は、培養中の細胞の数、細胞の面積、細胞の形状など、細胞に関する各種情報を取得する細胞解析装置に関する。 The present invention relates to a cell analyzer that acquires various information about cells such as the number of cells in culture, the area of cells, and the shape of cells.

再生医療分野では、近年、iPS細胞やES細胞、或いは間葉系幹細胞等の多能性幹細胞を用いた研究が盛んに行われている。こうした多能性幹細胞を利用した再生医療の研究・開発においては、多能性を維持した状態の未分化の細胞を大量に培養する必要がある。そのため、適切な培養環境の選択と環境の安定的な制御が必要であるとともに、培養中の細胞の状態を高い頻度で確認する必要がある。再生医療分野では観察後の細胞を引き続き培養するため、非破壊的及び非侵襲的に細胞状態の観察や確認を行うことが重要である。こうした非破壊的・非侵襲的な細胞状態の評価は、細胞観察装置で得られる細胞画像を利用した形態学的な評価が一般的である。 In the field of regenerative medicine, research using pluripotent stem cells such as iPS cells, ES cells, and mesenchymal stem cells has been actively conducted in recent years. In research and development of regenerative medicine using such pluripotent stem cells, it is necessary to culture a large amount of undifferentiated cells in a state of maintaining pluripotency. Therefore, it is necessary to select an appropriate culture environment and stably control the environment, and it is necessary to confirm the state of cells during culture at a high frequency. In the field of regenerative medicine, it is important to observe and confirm the cell state non-destructively and non-invasively because the cells after observation are continuously cultured. The evaluation of such a non-destructive and non-invasive cell state is generally a morphological evaluation using a cell image obtained by a cell observation device.

一般に細胞などの薄く透明な観察対象物は光の吸収が少ないため、光学的な強度像では対象物の形態を認識することは難しい。そのため、従来一般に、細胞の観察には位相差顕微鏡が広く利用されている。位相差顕微鏡では光が対象物を通過する際に変化する位相の変化量を画像化するため、透明である細胞の形態も可視化した位相差画像を得ることができる。しかしながら、位相差顕微鏡では顕微画像を撮影する際に焦点合わせを行う必要があるため、広い観察対象領域を細かく区画したそれぞれの小領域についての顕微画像を取得するような場合、測定に時間が掛かりすぎるという問題がある。これを解決するため、近年、デジタルホログラフィ技術を用いたデジタルホログラフィック顕微鏡が開発され実用に供されている(特許文献1、2等参照)。 In general, thin and transparent observation objects such as cells absorb less light, so it is difficult to recognize the morphology of the object from an optical intensity image. Therefore, conventionally, a phase-contrast microscope is widely used for observing cells. Since the phase-contrast microscope images the amount of phase change that changes when light passes through an object, it is possible to obtain a phase-contrast image that also visualizes the morphology of transparent cells. However, since it is necessary to focus when taking a microscopic image with a phase-contrast microscope, it takes time to measure when acquiring a microscopic image for each small area in which a wide observation target area is finely divided. There is a problem that it is too much. In order to solve this problem, in recent years, a digital holographic microscope using digital holography technology has been developed and put into practical use (see Patent Documents 1 and 2 and the like).

デジタルホログラフィック顕微鏡では、光源からの光が物体表面で反射又は透過してくる物体光と同一光源から直接到達する参照光とがイメージセンサ等の検出面で形成する干渉縞(ホログラム)を取得し、そのホログラムデータに基づいた光波の逆伝播演算処理等を実施することで位相情報や振幅(強度)情報を取得し、再構成画像として位相画像を作成する。こうしたデジタルホログラフィック顕微鏡では、ホログラムを取得したあとの演算処理の段階で任意の距離における位相情報等を得ることができるため、撮影時にいちいち焦点合わせを行う必要がないという利点がある。 In a digital holographic microscope, an interference fringe (hologram) formed by an object light reflected or transmitted on the surface of an object and a reference light directly arriving from the same light source on a detection surface such as an image sensor is acquired. , Acquire phase information and amplitude (intensity) information by performing back propagation arithmetic processing of light waves based on the hologram data, and create a phase image as a reconstructed image. Such a digital holographic microscope has an advantage that it is not necessary to focus each time at the time of shooting because it is possible to obtain phase information or the like at an arbitrary distance at the stage of arithmetic processing after acquiring the hologram.

国際特許公開第2016/084420号International Patent Publication No. 2016/0842420 特開平10−268740号公報Japanese Unexamined Patent Publication No. 10-268740

上述したようにホログラムデータに基づいて作成される位相画像では、透明である細胞を比較的明瞭に観察することができる。したがって、位相画像に基づいて細胞数を計数する等の解析が可能である。しかしながら、ウェル等の容器内で培養中である細胞をホログラフィック顕微鏡で撮影する際に、培地上や撮像部のセンサ等にゴミ等の異物が付着していると、これが細胞の観察画像に映り込んでしまう。この異物の像を細胞であると誤認識すると、細胞数の計数などの目的とする細胞解析の精度が低下してしまうという問題がある。 In the phase image created based on the hologram data as described above, transparent cells can be observed relatively clearly. Therefore, it is possible to perform analysis such as counting the number of cells based on the phase image. However, when a cell being cultured in a container such as a well is photographed with a holographic microscope, if foreign matter such as dust adheres to the medium or the sensor of the imaging unit, this is reflected in the observation image of the cell. It gets crowded. If the image of this foreign substance is erroneously recognized as a cell, there is a problem that the accuracy of the target cell analysis such as counting the number of cells is lowered.

本発明は上記課題を解決するためになされたものであり、その目的とするところは、撮影の際におけるゴミ等の異物の付着の影響を軽減し、細胞解析の精度を向上させることができる細胞解析装置を提供することである。 The present invention has been made to solve the above problems, and an object of the present invention is a cell capable of reducing the influence of foreign matter such as dust at the time of photographing and improving the accuracy of cell analysis. It is to provide an analyzer.

上記課題を解決するためになされた本発明に係る細胞解析装置の一態様は、
ホログラフィック顕微鏡と、
前記ホログラフィック顕微鏡で細胞を観察することで取得されたホログラムデータに基づいて、同一の撮影範囲に対応する位相画像及び強度画像を作成する画像作成部と、
前記強度画像内において異物が存在する異物領域を識別する異物領域識別部と、
前記位相画像内において前記異物領域識別部で識別された異物領域を除外した領域に存在する細胞に関連する情報を取得する細胞情報取得部と、
を備えるものである。
One aspect of the cell analyzer according to the present invention made to solve the above problems is
With a holographic microscope
An image creation unit that creates a phase image and an intensity image corresponding to the same imaging range based on the hologram data acquired by observing the cells with the holographic microscope.
A foreign matter region identification unit that identifies a foreign matter region in which a foreign matter exists in the intensity image,
A cell information acquisition unit that acquires information related to cells existing in a region excluding the foreign matter region identified by the foreign matter region identification unit in the phase image, and a cell information acquisition unit.
Is provided.

上記ホログラフィック顕微鏡は典型的にはデジタルホログラフィック顕微鏡であり、上記位相画像は例えば、デジタルホログラフィック顕微鏡により得られるホログラムデータに基づく計算処理により求められた位相情報に基づいて再構成される画像である。 The holographic microscope is typically a digital holographic microscope, and the phase image is, for example, an image reconstructed based on phase information obtained by calculation processing based on hologram data obtained by the digital holographic microscope. is there.

一般に細胞は透明であるため、ホログラムデータに基づいて得られる強度画像では明瞭に観察できないものの、位相画像では明瞭に観察可能である。これに対し、透明でない繊維片などの異物が培地上に存在していたりホログラフィック顕微鏡の撮像部(センサ等)に付着していたりすると、該異物の像は強度画像上に明瞭に現れる。即ち、強度画像は細胞の観察には不向きであるが、異物が存在する領域を把握するには適している。そこで本発明の上記態様の細胞解析装置において、異物領域識別部は、画像作成部で作成された強度画像内で異物が存在する異物領域を識別し、例えば異物領域をマスクするマスク画像を作成する。 Since cells are generally transparent, they cannot be clearly observed in an intensity image obtained based on hologram data, but can be clearly observed in a phase image. On the other hand, if a foreign substance such as a non-transparent fiber piece is present on the medium or adheres to an imaging unit (sensor or the like) of a holographic microscope, the image of the foreign substance appears clearly on the intensity image. That is, the intensity image is not suitable for observing cells, but it is suitable for grasping the region where a foreign substance exists. Therefore, in the cell analysis apparatus of the above aspect of the present invention, the foreign matter region identification unit identifies the foreign matter region in which the foreign matter exists in the intensity image created by the image creation unit, and creates, for example, a mask image that masks the foreign matter region. ..

細胞情報取得部は、画像作成部で作成された位相画像内で異物領域を除外した領域、つまりは上記マスク画像を用いてマスク処理された画像内に存在する細胞に関連する情報を取得する。具体的には例えば、機械学習により作成された学習モデルを用い、位相画像に基づいて細胞の核の領域を抽出した核位置推定画像を取得し、該画像に対しマスク処理を実施して求めた画像において細胞核を計数することで細胞数を算出することができる。また、細胞に関連する情報は細胞数に限らず、細胞の密度、細胞の形状や形態、細胞の面積、細胞の周囲長などでもよい。 The cell information acquisition unit acquires information related to cells existing in a region excluding a foreign substance region in the phase image created by the image creation unit, that is, a masked image using the mask image. Specifically, for example, using a learning model created by machine learning, a nuclear position estimation image obtained by extracting a nuclear region of a cell based on a phase image was acquired, and the image was masked to obtain the image. The number of cells can be calculated by counting the cell nuclei in the image. Further, the information related to cells is not limited to the number of cells, but may be cell density, cell shape and morphology, cell area, cell perimeter, and the like.

このようにして本発明の上記態様による細胞解析装置によれば、位相画像上に映り込んでいる異物の像の影響を受けることなく、細胞数等の解析結果の精度を向上させることができる。また、解析対象である細胞の撮影(測定)は非侵襲的に行えるので、細胞を引き続き培養したり、別の目的の分析や観察に供したりすることができる。 In this way, according to the cell analysis apparatus according to the above aspect of the present invention, the accuracy of the analysis result such as the number of cells can be improved without being affected by the image of the foreign substance reflected on the phase image. In addition, since the cells to be analyzed can be photographed (measured) non-invasively, the cells can be continuously cultured or used for analysis or observation for another purpose.

本発明に係る細胞解析装置の一実施形態の概略構成図。The schematic block diagram of one Embodiment of the cell analysis apparatus which concerns on this invention. 本実施形態の細胞解析装置における、核位置推定のための学習モデルを作成する際の処理の流れを示すフローチャート。The flowchart which shows the flow of the process at the time of making the learning model for the nucleus position estimation in the cell analysis apparatus of this embodiment. 本実施形態の細胞解析装置における解析対象である細胞の撮影から解析結果出力までの処理の流れを示すフローチャート。The flowchart which shows the flow of the process from the imaging of the cell to be analyzed to the output of the analysis result in the cell analysis apparatus of this embodiment. 図3中のステップS23におけるマスク画像作成処理の詳細なフローチャート。A detailed flowchart of the mask image creation process in step S23 in FIG. 異物が映り込んだ場合のIHM位相像及びIHM強度像の一例を示す図。The figure which shows an example of the IHM phase image and the IHM intensity image when a foreign substance is reflected. マスク画像作成処理の各工程における画像の一例を示す図。The figure which shows an example of the image in each process of a mask image creation process. マスク画像作成処理の各工程における画像の一例を示す図。The figure which shows an example of the image in each process of a mask image creation process. マスク画像作成処理の各工程における画像の一例を示す図。The figure which shows an example of the image in each process of a mask image creation process. マスク画像作成処理の各工程における画像の一例を示す図。The figure which shows an example of the image in each process of a mask image creation process.

以下、本発明に係る細胞解析装置の一実施形態について、添付図面を参照して説明する。
図1は、本実施形態の細胞解析装置の要部のブロック構成図である。この実施形態の細胞解析装置は、培養中の細胞を撮影して得られた細胞画像から細胞核の領域を検出し、細胞核を計数することで細胞の数を推定する機能を有している。
Hereinafter, an embodiment of the cell analyzer according to the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a block configuration diagram of a main part of the cell analyzer of the present embodiment. The cell analyzer of this embodiment has a function of detecting a region of a cell nucleus from a cell image obtained by photographing a cell in culture and estimating the number of cells by counting the cell nucleus.

本実施形態の細胞解析装置1は、顕微観察部10、制御・処理部20、ユーザインターフェイスである入力部30及び表示部40、を備える。また、この細胞解析装置1にはFCNモデル作成部50が付設されている。 The cell analysis device 1 of the present embodiment includes a microscopic observation unit 10, a control / processing unit 20, an input unit 30 as a user interface, and a display unit 40. Further, the cell analysis device 1 is provided with an FCN model creation unit 50.

顕微観察部10はインライン型ホログラフィック顕微鏡(In-line Holographic Microscopy:IHM)であり、レーザダイオードなどを含む光源部11とイメージセンサ12とを備え、光源部11とイメージセンサ12との間に、細胞14を含む培養プレート13が配置される。 The microscopic observation unit 10 is an in-line holographic microscopy (IHM), includes a light source unit 11 including a laser diode and an image sensor 12, and between the light source unit 11 and the image sensor 12. A culture plate 13 containing the cells 14 is placed.

制御・処理部20は、顕微観察部10の動作を制御するとともに顕微観察部10で取得されたデータを処理するものであって、撮影制御部21と、ホログラムデータ記憶部22と、位相/強度情報算出部23と、画像作成部24と、マスク画像作成処理部25と、核位置推定部26と、解析処理部27と、表示処理部28と、を機能ブロックとして備える。また、核位置推定部26は核位置学習モデル記憶部261を含む。 The control / processing unit 20 controls the operation of the microscopic observation unit 10 and processes the data acquired by the microscopic observation unit 10, and includes the imaging control unit 21, the hologram data storage unit 22, and the phase / intensity. The information calculation unit 23, the image creation unit 24, the mask image creation processing unit 25, the nuclear position estimation unit 26, the analysis processing unit 27, and the display processing unit 28 are provided as functional blocks. Further, the nuclear position estimation unit 26 includes a nuclear position learning model storage unit 261.

FCNモデル作成部50は、学習画像データ入力部51と、画像位置合わせ処理部52と、染色画像前処理部53と、染色画像二値化部54と、学習実行部55と、モデル構築部56と、を機能ブロックとして含む。このFCNモデル作成部50において作成される学習済みの学習モデルが、制御・処理部20における記憶部に格納され核位置学習モデル記憶部261として機能する。 The FCN model creation unit 50 includes a learning image data input unit 51, an image alignment processing unit 52, a stained image preprocessing unit 53, a stained image binarization unit 54, a learning execution unit 55, and a model construction unit 56. And are included as functional blocks. The learned learning model created by the FCN model creation unit 50 is stored in the storage unit of the control / processing unit 20 and functions as the nuclear position learning model storage unit 261.

通常、制御・処理部20の実体は、所定のソフトウェアがインストールされたパーソナルコンピュータやより性能の高いワークステーション、或いは、そうしたコンピュータと通信回線を介して接続された高性能なコンピュータを含むコンピュータシステムである。即ち、制御・処理部20に含まれる各ブロックの機能は、コンピュータ単体又は複数のコンピュータを含むコンピュータシステムに搭載されているソフトウェアを実行することで実施される、該コンピュータ又はコンピュータシステムに記憶されている各種データを用いた処理によって具現化されるものとすることができる。 Usually, the entity of the control / processing unit 20 is a personal computer in which predetermined software is installed, a higher-performance workstation, or a computer system including a high-performance computer connected to such a computer via a communication line. is there. That is, the function of each block included in the control / processing unit 20 is stored in the computer or computer system, which is executed by executing software installed in a computer system including a single computer or a plurality of computers. It can be embodied by processing using various types of data.

また、FCNモデル作成部50の実体も、所定のソフトウェアがインストールされたパーソナルコンピュータやより性能の高いワークステーションである。通常、このコンピュータは制御・処理部20と異なるコンピュータであるが、同じコンピュータであってもよい。つまり、FCNモデル作成部50の機能を制御・処理部20に持たせることもできる。 Further, the entity of the FCN model creation unit 50 is also a personal computer in which predetermined software is installed or a workstation having higher performance. Normally, this computer is a computer different from the control / processing unit 20, but it may be the same computer. That is, the control / processing unit 20 can have the function of the FCN model creation unit 50.

まず、本実施形態の細胞解析装置1において、細胞の観察画像であるIHM位相像及びIHM強度像を作成するまでの作業及び処理について説明する。
オペレータが細胞14を含む培養プレート13を所定位置にセットして入力部30で所定の操作を行うと、撮影制御部21は顕微観察部10を制御し、以下のような手順でホログラムデータを取得する。
First, in the cell analysis device 1 of the present embodiment, the work and processing until the IHM phase image and the IHM intensity image, which are observation images of cells, are created will be described.
When the operator sets the culture plate 13 containing the cells 14 at a predetermined position and performs a predetermined operation on the input unit 30, the imaging control unit 21 controls the microscopic observation unit 10 and acquires hologram data by the following procedure. To do.

即ち、光源部11は10°程度の角度の広がりを持つコヒーレント光を培養プレート13の所定の領域に照射する。培養プレート13及び細胞14を透過したコヒーレント光(物体光16)は、培養プレート13上で細胞14に近接する領域を透過した光(参照光15)と干渉しつつイメージセンサ12に到達する。物体光16は細胞14を透過する際に位相が変化した光であり、他方、参照光15は細胞14を透過しないので細胞14に起因する位相変化を受けない光である。したがって、イメージセンサ12の検出面(像面)上には、細胞14により位相が変化した物体光16と位相が変化していない参照光15との干渉縞による像つまりホログラムが形成される。 That is, the light source unit 11 irradiates a predetermined region of the culture plate 13 with coherent light having an angle spread of about 10 °. The coherent light (object light 16) transmitted through the culture plate 13 and the cells 14 reaches the image sensor 12 while interfering with the light (reference light 15) transmitted through the region close to the cells 14 on the culture plate 13. The object light 16 is light whose phase changes when it passes through the cell 14, while the reference light 15 is light that does not pass through the cell 14 and therefore does not undergo the phase change caused by the cell 14. Therefore, on the detection surface (image surface) of the image sensor 12, an image, that is, a hologram is formed by interference fringes between the object light 16 whose phase has been changed by the cells 14 and the reference light 15 whose phase has not changed.

光源部11及びイメージセンサ12は、図示しない移動機構によって、連動してX軸方向及びY軸方向に順次移動される。これにより、光源部11から発せられたコヒーレント光の照射領域(観察領域)を培養プレート13上で移動させ、広い2次元領域に亘るホログラムデータ(イメージセンサ12の検出面で形成されたホログラムの2次元的な光強度分布データ)を取得することができる。 The light source unit 11 and the image sensor 12 are sequentially moved in the X-axis direction and the Y-axis direction in conjunction with each other by a movement mechanism (not shown). As a result, the irradiation region (observation region) of the coherent light emitted from the light source unit 11 is moved on the culture plate 13, and the hologram data (2 of the hologram formed on the detection surface of the image sensor 12) covers a wide two-dimensional region. Dimensional light intensity distribution data) can be obtained.

上述したように顕微観察部10で得られたホログラムデータは逐次、制御・処理部20に送られ、ホログラムデータ記憶部22に格納される。制御・処理部20において、位相/強度情報算出部23は、ホログラムデータ記憶部22からホログラムデータを読み出し、位相回復のための所定の演算処理を実行することで観察領域(撮影領域)全体の位相情報を算出する。画像作成部24は、算出された位相情報に基づいてIHM位相像を作成する。こうした位相情報の算出やIHM位相像の作成の際には、特許文献1、2等に開示されている周知のアルゴリズムを用いることができる。
図5(a)はIHM位相像の一例である。透明である細胞は一般的な光学顕微鏡では視認しにくいが、IHM位相像では個々の細胞をかなり明瞭に観察することができる。
As described above, the hologram data obtained by the microscopic observation unit 10 is sequentially sent to the control / processing unit 20 and stored in the hologram data storage unit 22. In the control / processing unit 20, the phase / intensity information calculation unit 23 reads the hologram data from the hologram data storage unit 22 and executes a predetermined arithmetic process for phase recovery to execute the phase of the entire observation area (photographing area). Calculate the information. The image creation unit 24 creates an IHM phase image based on the calculated phase information. A well-known algorithm disclosed in Patent Documents 1 and 2 can be used in calculating such phase information and creating an IHM phase image.
FIG. 5A is an example of an IHM phase image. Transparent cells are difficult to see with a general light microscope, but individual cells can be observed fairly clearly with an IHM phase image.

但し、IHM位相像上で細胞を観察することは可能であるものの、IHM位相像から各細胞核の領域を正確に検出することは容易ではない。そこで、本実施形態の細胞解析装置1では、機械学習法の一つである全層畳み込みニューラルネットワーク(FCN:Fully Convolutional Neural network)を利用して、各細胞において細胞核が存在する推定位置(推定領域)を示す核位置推定画像を得る。 However, although it is possible to observe cells on the IHM phase image, it is not easy to accurately detect the region of each cell nucleus from the IHM phase image. Therefore, in the cell analysis device 1 of the present embodiment, the estimated position (estimated region) in which the cell nucleus exists in each cell is used by using a full-layer convolutional neural network (FCN) which is one of the machine learning methods. ) Is obtained.

よく知られているように、FCNは一般に、畳み込み層とプーリング層との繰り返しが多層化された多層ネットワークと、畳み込みニューラルネットワーク(CNN)における全結合層に相当する最終段の畳み込み層と、を含む。多層ネットワークでは、所定のサイズのフィルタ(カーネル)を用いた畳み込み処理と、畳み込み結果を2次元的に縮小して有効値を抽出するプーリング処理とを繰り返す。また、最終段の畳み込み層では、所定のサイズのフィルタを入力画像内でスライドさせつつ局所的な畳み込み及び逆畳み込みを行う。本実施形態の細胞解析装置では、IHM位相像における画素単位でラベル化を行うようにFCNの多層ネットワーク及び畳み込み層を設計する。これにより、入力画像であるIHM位相像に対してセマンティックセグメンテーションを行い、細胞核の領域を画素単位でラベル付けしたセグメンテーション画像(ラベル画像)を出力することができる。 As is well known, FCN generally consists of a multi-layer network in which the repetition of a convolutional layer and a pooling layer is multi-layered, and a final convolutional layer corresponding to a fully connected layer in a convolutional neural network (CNN). Including. In a multi-layer network, a convolution process using a filter (kernel) of a predetermined size and a pooling process in which the convolution result is two-dimensionally reduced and an effective value is extracted are repeated. Further, in the final convolution layer, local convolution and deconvolution are performed while sliding a filter of a predetermined size in the input image. In the cell analysis apparatus of this embodiment, the FCN multilayer network and convolution layer are designed so as to label each pixel in the IHM phase image. As a result, it is possible to perform semantic segmentation on the IHM phase image which is an input image and output a segmentation image (label image) in which the region of the cell nucleus is labeled on a pixel-by-pixel basis.

FCNにおいて上記のようなセマンティックセグメンテーションを行うには、予め多数の学習用の画像データを用い、多層ネットワークに含まれる複数の畳み込み層や最終段の畳み込み層それぞれにおけるフィルタの係数(重み)を学習させて学習モデルを構築しておく必要がある。
図2に示すフローチャートに従って、FCNモデル作成部50において学習処理を行う際の動作を説明する。なお、学習の際には、例えば、一般的に機械学習でしばしば用いられている確率的勾配降下法を利用した学習を行うことができる。
In order to perform the above-mentioned semantic segmentation in FCN, a large number of image data for learning are used in advance to learn the coefficient (weight) of the filter in each of the plurality of convolution layers included in the multilayer network and the final convolution layer. It is necessary to build a learning model.
The operation when the learning process is performed in the FCN model creation unit 50 will be described with reference to the flowchart shown in FIG. At the time of learning, for example, learning using the stochastic gradient descent method often used in machine learning can be performed.

FCNモデル作成部50の学習画像データ入力部51は、画像作成部24で作成されたIHM位相像とそれに対応する正解画像とを一組とする学習データ(教師データ、訓練データとも呼ばれるが、ここでは学習データという)を予め多数組読み込む(ステップS10)。IHM位相像は、上述したように細胞解析装置1で実際に細胞を撮影したデータに基づいて作成されるものであるが、必ずしも特定の細胞解析装置に限らず、同様の構成の他の細胞解析装置で得られたものでよい。一方、正解画像は、IHM位相像を作成したときの細胞の核のみを染色し、それを適宜の顕微鏡で撮影した蛍光画像(核染色蛍光画像)である。染色の手法は細胞核を染色可能であれば特に問わないが、例えば、DAPI(4',6-diamidino-2-phenylindole)、ヨウ化プロピジウム、SYTOX(登録商標)、TO−PRO(登録商標)−3などを用いることができる。 The learning image data input unit 51 of the FCN model creation unit 50 is a learning data (also called teacher data or training data) in which the IHM phase image created by the image creation unit 24 and the corresponding correct image are a set, but here. Then, a large number of sets (referred to as learning data) are read in advance (step S10). The IHM phase image is created based on the data obtained by actually photographing the cells with the cell analysis device 1 as described above, but the IHM phase image is not necessarily limited to a specific cell analysis device, and other cell analysis having the same configuration is performed. It may be the one obtained by the device. On the other hand, the correct image is a fluorescence image (nuclear-stained fluorescence image) obtained by staining only the nucleus of the cell when the IHM phase image was created and taking the image with an appropriate microscope. The staining method is not particularly limited as long as the cell nucleus can be stained, and for example, DAPI (4', 6-diamidino-2-phenylindole), propidium iodide, SYSTEMX (registered trademark), TO-PRO (registered trademark)- 3 and the like can be used.

一組であるIHM位相像と核染色蛍光画像とでは細胞の位置や方向、大きさなどが全く同じであることが望ましいが、一般には、デジタルホログラフィック顕微鏡での撮影と並行して蛍光画像を取得することはできないため、得られるIHM位相像と核染色蛍光画像とで細胞の位置や方向、大きさなどが異なることは避けられない。そこで、画像位置合わせ処理部52は、いずれか一方の画像の平行移動、回転、拡大・縮小などの画像処理を行うことで、両画像の位置合わせを実施する(ステップS11)。 It is desirable that the position, direction, and size of cells are exactly the same between the IHM phase image and the nuclear-stained fluorescence image, which are a set, but in general, the fluorescence image is taken in parallel with the imaging with a digital holographic microscope. Since it cannot be obtained, it is inevitable that the position, direction, size, etc. of the cells will differ between the obtained IHM phase image and the nuclear-stained fluorescence image. Therefore, the image alignment processing unit 52 aligns both images by performing image processing such as translation, rotation, enlargement / reduction of one of the images (step S11).

この位置合わせの作業は、例えば、核染色蛍光画像と同時に撮影したアクチンフィラメント染色蛍光画像を利用して行うことができる。アクチンフィラメントは細胞骨格の一種であり、細胞の内部全体に繊維形状に存在する。通常の明視野画像では細胞領域を視認することが難しいが、アクチンフィラメントは概ね細胞全体に存在しているため、アクチンフィラメントが分布している範囲は細胞領域であるとみなすことができる。そこで、アクチンフィラメント染色蛍光画像とIHM位相像とを比較して、位置合わせのための座標移動量、拡大率、回転角度などの位置合わせのパラメータを求める。但し、顕微鏡のステージ精度の影響によって、核染色蛍光画像とアクチンフィラメント染色蛍光画像とでは若干位置ずれが生じる場合がある。そのため、上記のように求めたパラメータを参考にして、IHM位相像の細胞内に核染色蛍光画像上の細胞核が的確に入るかどうかをオペレータが確認しながら位置合わせを行うとよい。 This alignment work can be performed using, for example, an actin filament-stained fluorescence image taken at the same time as the nuclear-stained fluorescence image. Actin filaments are a type of cytoskeleton and are present in the form of fibers throughout the inside of cells. Although it is difficult to visually recognize the cell region in a normal bright-field image, since actin filaments are present almost throughout the cell, the range in which the actin filaments are distributed can be regarded as the cell region. Therefore, the actin filament-stained fluorescence image is compared with the IHM phase image to obtain alignment parameters such as the amount of coordinate movement for alignment, the magnification, and the rotation angle. However, due to the influence of the stage accuracy of the microscope, there may be a slight misalignment between the nuclear-stained fluorescent image and the actin filament-stained fluorescent image. Therefore, with reference to the parameters obtained as described above, it is advisable for the operator to perform the alignment while confirming whether or not the cell nuclei on the nuclear-stained fluorescence image are accurately inserted into the cells of the IHM phase image.

次に、染色画像前処理部53は核染色蛍光画像において細胞核の領域がより明確になるように、ノイズ除去処理、及び背景除去処理を実施する(ステップS12、S13)。ノイズ除去処理は各種のノイズを除去することを目的としており、例えば、線形フィルタ、メディアンフィルタなどの各種のフィルタを用いることができる。また、背景除去処理は、細胞核以外の背景部分にある強度ムラを除去することを主な目的としたものであり、背景減算処理として、平均値フィルタを利用した方法などが知られている。ノイズ除去処理、及び背景除去処理の手法自体は従来の画像処理で利用されている様々な手法を利用することができる。また、ノイズの状況は顕微鏡の特性や対象サンプルの特性にも依存するので、場合によってはノイズ除去処理を省略することができる。 Next, the stained image preprocessing unit 53 performs noise removing processing and background removing processing so that the region of the cell nucleus becomes clearer in the nuclear-stained fluorescent image (steps S12 and S13). The noise removal process aims to remove various types of noise, and for example, various types of filters such as a linear filter and a median filter can be used. Further, the background removing process is mainly intended to remove intensity unevenness in a background portion other than the cell nucleus, and a method using an average value filter is known as a background subtraction process. As the noise removal processing and the background removal processing method itself, various methods used in the conventional image processing can be used. Further, since the noise condition depends on the characteristics of the microscope and the characteristics of the target sample, the noise removal process can be omitted in some cases.

染色画像二値化部54は上記のように前処理がなされた画像を二値化処理して、細胞核の領域とそれ以外の領域とを明確化した二値化画像を作成する(ステップS14)。さらに染色画像二値化部54は、二値化後の画像に対し、モルフォロジー変換処理として膨張処理と縮小処理とを組み合わせたクロージング処理を実施する(ステップS15)。 The stained image binarization unit 54 binarizes the preprocessed image as described above to create a binarized image in which the cell nucleus region and the other regions are clarified (step S14). .. Further, the stained image binarization unit 54 performs a closing process that combines an expansion process and a reduction process as a morphology conversion process on the binarized image (step S15).

一般的に核染色蛍光画像では、背景部分における強度ムラが大きいので、背景除去処理を実施しないと核領域を抽出することが可能な二値化が行えない。それに対し、背景除去処理を事前に行うことで、核領域が的確に抽出されている二値化画像を得ることができる。この二値化画像は、それに対応するIHM位相像上で細胞核領域とそれ以外の領域とをセマンティックセグメンテーションしラベル化した画像である。また、上述したように二値化後にクロージング処理を行うことで、主として輝点ノイズ等の染色画像上の小さなノイズを除去することができる。但し、ノイズの状況やステップS12でのノイズ除去処理の性能によっては、クロージング処理は省略することもできる。 Generally, in a nuclear-stained fluorescent image, the intensity unevenness in the background portion is large, so that binarization capable of extracting the nuclear region cannot be performed unless the background removal treatment is performed. On the other hand, by performing the background removal process in advance, it is possible to obtain a binarized image in which the nuclear region is accurately extracted. This binarized image is an image in which the cell nucleus region and the other regions are semantically segmented and labeled on the corresponding IHM phase image. Further, as described above, by performing the closing process after binarization, it is possible to remove mainly small noise on the stained image such as bright spot noise. However, the closing process may be omitted depending on the noise situation and the performance of the noise removal process in step S12.

全ての学習データについてステップS11〜S15の処理を行うことで、IHM位相像と核染色蛍光画像の二値化画像とを組とする多数の学習データが揃ったならば、学習実行部55は、その多数の学習データを用いてFCNの学習を実行する(ステップS16)。即ち、FCNによるセマンティックセグメンテーションの結果が正解画像にできるだけ近くなるように、そのネットワークにおける複数の畳み込み層でのフィルタ係数を学習する。モデル構築部56は、その学習の繰り返しの過程でモデルを構築し、所定の学習が終了すると、モデル構築部56はその学習結果に基づく学習モデルを保存する(ステップS17)。
このようにして作成された学習モデルを構成するデータが、核位置学習モデル記憶部261に格納される。
By performing the processes of steps S11 to S15 for all the training data, if a large number of training data including the binarized image of the IHM phase image and the nuclear-stained fluorescent image are prepared, the learning execution unit 55 may perform the training execution unit 55. FCN learning is executed using the large number of training data (step S16). That is, the filter coefficients in the plurality of convolution layers in the network are learned so that the result of semantic segmentation by FCN is as close as possible to the correct image. The model building unit 56 builds a model in the process of repeating the learning, and when the predetermined learning is completed, the model building unit 56 saves the learning model based on the learning result (step S17).
The data constituting the learning model created in this way is stored in the nuclear position learning model storage unit 261.

次に、上述したように学習モデルが核位置学習モデル記憶部261に格納されている状態で、細胞解析装置1で行われる解析対象である細胞の解析処理について、図3に示すフローチャートを参照して説明する。 Next, with reference to the flowchart shown in FIG. 3, regarding the analysis process of the cell to be analyzed performed by the cell analyzer 1 in the state where the learning model is stored in the nuclear position learning model storage unit 261 as described above. I will explain.

オペレータは解析対象の細胞14を含む培養プレート13を顕微観察部10の所定位置にセットし、入力部30で所定の操作を行う。これにより、撮影制御部21の制御の下で顕微観察部10は、試料(培養プレート13中の細胞14)の撮影を実施する(ステップS20)。位相/強度情報算出部23は、その撮影により得られたホログラムデータに基づいて所定の演算を実行して位相情報と強度情報とを取得し、画像作成部24は同じ観察領域についてのIHM位相像とIHM強度像を作成する(ステップS21)。 The operator sets the culture plate 13 containing the cells 14 to be analyzed at a predetermined position of the microscopic observation unit 10, and performs a predetermined operation on the input unit 30. As a result, under the control of the imaging control unit 21, the microscopic observation unit 10 photographs the sample (cells 14 in the culture plate 13) (step S20). The phase / intensity information calculation unit 23 executes a predetermined calculation based on the hologram data obtained by the photographing to acquire the phase information and the intensity information, and the image creation unit 24 is an IHM phase image for the same observation area. And create an IHM intensity image (step S21).

核位置推定部26は、ステップS21で得られたIHM位相像を入力画像として読み込み、核位置学習モデル記憶部261に格納されている核位置学習モデルを用いたFCNによる処理を実施し、入力画像に対応したセグメンテーション画像を出力する。このときのセグメンテーション画像は、入力画像であるIHM位相像と同じ観察範囲について、細胞核の領域とそれ以外の領域とを区別して示す核位置推定画像である(ステップS22)。 The nuclear position estimation unit 26 reads the IHM phase image obtained in step S21 as an input image, performs processing by FCN using the nuclear position learning model stored in the nuclear position learning model storage unit 261, and performs an input image. Outputs the segmentation image corresponding to. The segmentation image at this time is a nuclear position estimation image that distinguishes between the cell nucleus region and the other regions in the same observation range as the IHM phase image that is the input image (step S22).

核位置学習モデルの精度は高いので、ステップS22で得られる核位置推定画像は細胞核の領域を的確に示しているものの、培養プレートの培地上に異物が載っていたりイメージセンサ12や撮影光学系に異物が付着していたりすると、それが細胞として誤認識されてしまい細胞数等の解析結果の精度低下をもたらす。上述したように、解析対象である細胞は透明であり図5(b)に示したIHM強度像では不鮮明にしか観察できないが、図5(a)に示したIHM位相像では明瞭に観察可能である。これに対し、ゴミ等の異物は通常不透明であるので、図5(a)に示したIHM位相像だけでなく図5(b)に示したIHM強度像でも明瞭に観察可能である。そこで、本実施形態の細胞解析装置では、細胞観察には通常使用しないIHM強度像を利用して異物が存在する領域を識別し、その異物領域を除外して細胞数の計数等の解析処理を実行する。 Since the accuracy of the nuclear position learning model is high, the nuclear position estimation image obtained in step S22 accurately shows the region of the cell nucleus, but foreign matter is placed on the medium of the culture plate or on the image sensor 12 or the imaging optical system. If a foreign substance is attached, it will be mistakenly recognized as a cell, resulting in a decrease in the accuracy of analysis results such as the number of cells. As described above, the cells to be analyzed are transparent and can only be observed unclearly in the IHM intensity image shown in FIG. 5 (b), but can be clearly observed in the IHM phase image shown in FIG. 5 (a). is there. On the other hand, since foreign matter such as dust is usually opaque, it can be clearly observed not only in the IHM phase image shown in FIG. 5 (a) but also in the IHM intensity image shown in FIG. 5 (b). Therefore, in the cell analyzer of the present embodiment, a region where a foreign substance exists is identified by using an IHM intensity image which is not normally used for cell observation, and the foreign substance region is excluded to perform analysis processing such as counting the number of cells. Execute.

即ち、マスク画像作成処理部25はステップS21で作成されたIHM強度像に基づいて、異物領域をマスクするためのマスク画像を作成する(ステップS23)。マスク画像作成処理の詳しい手順を図4のフローチャートに示す。また、図6〜図9に、マスク画像作成処理の各工程における画像の一例を示す。 That is, the mask image creation processing unit 25 creates a mask image for masking the foreign matter region based on the IHM intensity image created in step S21 (step S23). The detailed procedure of the mask image creation process is shown in the flowchart of FIG. Further, FIGS. 6 to 9 show an example of an image in each step of the mask image creation process.

マスク画像作成処理部25は、例えば図6(a)に示したような処理対象のIHM強度像を読み込むと(ステップS30)、画像処理の負荷を軽減するために、IHM強度像の画像サイズを減らす縮小処理を行う(ステップS31)。画像サイズを小さくするほど処理の負荷は小さくなるものの、縮小し過ぎると細部が潰れてしまって異物領域のマスキングの精度が下がる。したがって、コンピュータ等の処理装置の性能と元の画像のサイズ、所望のマスキングの精度などを考慮して、予め縮小度合いを決めておくとよい。具体的には画像サイズを1/8程度に縮小するとよい。また、例えば1回の縮小処理における縮小率を1/8とし、パラメータとして設定された回数だけ縮小処理を繰り返すようにしてもよい。 When the mask image creation processing unit 25 reads, for example, the IHM intensity image of the processing target as shown in FIG. 6A (step S30), the image size of the IHM intensity image is adjusted in order to reduce the load of image processing. The reduction process is performed (step S31). The smaller the image size, the smaller the processing load, but if it is reduced too much, the details will be crushed and the masking accuracy of the foreign matter area will decrease. Therefore, it is advisable to determine the degree of reduction in advance in consideration of the performance of a processing device such as a computer, the size of the original image, the desired masking accuracy, and the like. Specifically, the image size may be reduced to about 1/8. Further, for example, the reduction ratio in one reduction process may be set to 1/8, and the reduction process may be repeated a number of times set as a parameter.

次にマスク画像作成処理部25は、縮小後のIHM強度像について画素毎に強度値を所定の閾値と比較することで二値化処理を行う(ステップS32)。図6(a)に示すように、透明でない異物はIHM強度像上で暗くなるから、強度値が閾値以下である画素に「1」の値、強度値が閾値を超える画素に「0」の値を与えて二値化する。これにより、値が「1」及び{0」である領域をそれぞれ白及び黒とすれば、異物が存在する異物領域は白、それ以外の領域は黒である二値画像が得られる。上記二値化の際の閾値は、例えば実験的に決めておくようにするとよい。図6(b)は二値化後の画像である。 Next, the mask image creation processing unit 25 performs binarization processing on the reduced IHM intensity image by comparing the intensity value for each pixel with a predetermined threshold value (step S32). As shown in FIG. 6A, since non-transparent foreign matter becomes dark on the IHM intensity image, a value of "1" is set for pixels having an intensity value below the threshold value, and a value of "0" is set for pixels having an intensity value exceeding the threshold value. Give a value and binarize it. As a result, if the regions having the values "1" and {0 "are white and black, respectively, a binary image is obtained in which the foreign matter region where the foreign matter is present is white and the other regions are black. The threshold value at the time of the above binarization may be determined experimentally, for example. FIG. 6B is an image after binarization.

なお、多数の画像処理機能が搭載されているOpenCV(Open Source Computer Vision Library)を利用して二値化処理を行う場合、各画素のビット数をOpenCVに適合するビット数に変換する必要がある。具体的には、元のIHM強度像における1画素のビット数が16である場合、OpenCVの標準的なビット数である32ビットに変換する必要がある。そこで、二値化処理の前に16→32のビット数拡張処理を行い、二値化処理の後に32→16のビット数縮小処理を行うとよい。また、以降の演算処理の負荷を減らすために、ビット数を縮小する際に元のビット数よりも少ないビット数(例えば8ビット)まで縮小してもよい。 When binarizing using OpenCV (Open Source Computer Vision Library) equipped with many image processing functions, it is necessary to convert the number of bits of each pixel to the number of bits compatible with OpenCV. .. Specifically, when the number of bits of one pixel in the original IHM intensity image is 16, it is necessary to convert it to 32 bits, which is the standard number of bits of OpenCV. Therefore, it is preferable to perform the bit number expansion process of 16 → 32 before the binarization process, and perform the bit number reduction process of 32 → 16 after the binarization process. Further, in order to reduce the load of the subsequent arithmetic processing, when the number of bits is reduced, the number of bits may be reduced to a number smaller than the original number of bits (for example, 8 bits).

次いでマスク画像作成処理部25は、二値化後の画像に対しモルフォロジー変換処理として膨張処理と縮小処理とを組み合わせたクロージング処理を実施する(ステップS33)。よく知られているように、画像に対してクロージング処理を行うことで、途切れている部位を結合したり、欠落している部位を穴埋めしたりすることができる。図6(a)から分かるように、IHM強度像上の異物の像はその全体が均等に暗くなっているわけではなく、異物が存在する領域の内部の一部や細い部分が白っぽくなっていたりすることがある。そのため、二値化処理の際の閾値が適切であっても、異物領域の全体が「1」である値の像とはならず、一部が途切れたり欠落したりすることが避けられない。図7(a)に示すように、クロージング処理によって、こうした本来は異物である部分でありながら欠損している部分を補うことができる。 Next, the mask image creation processing unit 25 performs a closing process that combines an expansion process and a reduction process as a morphology conversion process on the binarized image (step S33). As is well known, by performing a closing process on an image, it is possible to combine broken parts and fill in missing parts. As can be seen from FIG. 6A, the entire image of the foreign matter on the IHM intensity image is not evenly darkened, and a part or a thin part inside the region where the foreign matter exists is whitish. I have something to do. Therefore, even if the threshold value at the time of the binarization process is appropriate, the entire foreign matter region does not become an image of a value of "1", and it is inevitable that a part of the foreign matter region is interrupted or missing. As shown in FIG. 7A, such a portion that is originally a foreign substance but is missing can be supplemented by the closing treatment.

さらにマスク画像作成処理部25は、クロージング処理後の画像に対しモルフォロジー変換処理として膨張処理と縮小処理とを組み合わせたオープニング処理を実施する(ステップS34)。図7(b)に示すように、クロージング処理後の画像に対しオープニング処理を行うことで、クロージング処理において周囲の画素又は領域と繋がらなかった孤立点であるノイズを除去することができる。 Further, the mask image creation processing unit 25 performs an opening process that combines an expansion process and a reduction process as a morphology conversion process on the image after the closing process (step S34). As shown in FIG. 7B, by performing the opening process on the image after the closing process, it is possible to remove noise which is an isolated point that is not connected to the surrounding pixels or regions in the closing process.

次いでマスク画像作成処理部25は、二値画像上でその面積が所定の面積以下である領域を除去する処理を実行する(ステップS35)。即ち、図8(a)に示すように、ステップS34のオープニング処理では除去できない、或る程度大きな面積の領域をここで除去する。 Next, the mask image creation processing unit 25 executes a process of removing an area whose area is equal to or less than a predetermined area on the binary image (step S35). That is, as shown in FIG. 8A, a region having a certain large area that cannot be removed by the opening process of step S34 is removed here.

上記オープニング処理の繰り返し回数を増やせば或る程度大きな面積の領域も除去することが可能であるものの、そうすると処理に要する時間が長くなる。逆に、オープニング処理を省略してステップS35の処理を実施しても孤立点を除去することができる(孤立点の面積は小さいので)が、そうすると除去すべき領域の数が非常に多くなるためにやはり処理に要する時間が長くなる。これに対し、ステップS34の処理とステップS35の処理とを組み合わせることで、その面積が所定の面積以下である不所望の領域を効率的に、つまりは短い処理時間で除去することができる。なお、除去対象の領域を選択するパラメータである上記所定の面積は、想定される異物の大きさ等に基づいて予め実験的に設定しておくことができる。 Although it is possible to remove an area having a certain large area by increasing the number of repetitions of the opening process, the time required for the process becomes long. On the contrary, even if the opening process is omitted and the process of step S35 is performed, the isolated points can be removed (because the area of the isolated points is small), but then the number of areas to be removed becomes very large. After all, the time required for processing becomes long. On the other hand, by combining the process of step S34 and the process of step S35, an undesired area whose area is equal to or less than a predetermined area can be efficiently removed, that is, in a short processing time. The predetermined area, which is a parameter for selecting the area to be removed, can be experimentally set in advance based on the assumed size of the foreign matter and the like.

そのあとマスク画像作成処理部25は、二値画像上において白色で示される領域(異物に対応する領域)を膨張させる処理を行う(ステップS36)。デジタルホログラフィック顕微鏡での撮影の原理上、図6(a)に示すように、IHM強度像上の異物の像では周縁部が暗くならず白っぽくなる。そのため、IHM強度像を二値化した二値画像において、異物像は実際の異物の領域よりも小さくなる。これに対し、図8(b)に示すように、二値画像上での異物の像を膨張させることで、実際の異物の領域を十分にカバーするようなマスク画像を形成することができる。 After that, the mask image creation processing unit 25 performs a process of expanding the region (region corresponding to the foreign matter) shown in white on the binary image (step S36). Due to the principle of photographing with a digital holographic microscope, as shown in FIG. 6A, the peripheral portion of the image of the foreign matter on the IHM intensity image does not become dark and becomes whitish. Therefore, in the binary image obtained by binarizing the IHM intensity image, the foreign matter image becomes smaller than the actual foreign matter region. On the other hand, as shown in FIG. 8B, by expanding the image of the foreign matter on the binary image, it is possible to form a mask image that sufficiently covers the actual foreign matter region.

さらにマスク画像作成処理部25は、ステップS36の処理後の二値画像に対し、ステップS31で縮小したときの縮小率と逆の拡大率の、画像サイズの拡大処理を実行する(ステップS37)。図9(a)はサイズ拡大後の画像である。上述したようにステップS31で画像サイズを1/8に縮小した場合であれば、ステップS37では画像サイズを8倍に拡大すればよい。画像拡大の手法として周囲の適宜の方法を選択することができる。画像拡大法として最も単純なのは最短距離法(Nearest Neighbor法)であるが、最短距離法では領域の輪郭(境界)のギザギザが目立ち易い。したがって、好ましくは、線形補間法(Bilinear法)などの補間を利用した方法のほうがよい。 Further, the mask image creation processing unit 25 executes an image size enlargement process on the binary image processed in step S36, which has an enlargement ratio opposite to the reduction ratio when the binary image is reduced in step S31 (step S37). FIG. 9A is an image after the size has been enlarged. If the image size is reduced to 1/8 in step S31 as described above, the image size may be enlarged 8 times in step S37. As a method of enlarging the image, an appropriate method of surroundings can be selected. The simplest image enlargement method is the Nearest Neighbor method, but in the shortest distance method, the jaggedness of the outline (boundary) of the area is easily noticeable. Therefore, a method using interpolation such as a linear interpolation method (Bilinear method) is preferable.

そして最後にマスク画像作成処理部25は、再度、二値化処理を実行したあとに画像の白黒を反転する処理を行う(ステップS38)。ここで二値化を行うのはステップS37で線形補間法などによる画像拡大を行うと白黒以外の中間階調が生じてしまうためである。したがって、最短距離法などの、中間階調が生じない画像拡大法を用いる場合にはステップS38における二値化処理は不要である。また、最後に白黒反転を行うのは、異物領域を黒色としたマスク画像を得るためである。
以上のような手順により、図9(b)に示すような、異物領域が黒色でそれ以外の領域が白色であるマスク画像を得ることができる。
Finally, the mask image creation processing unit 25 performs a process of inverting the black and white of the image after executing the binarization process again (step S38). Here, binarization is performed because if the image is enlarged by the linear interpolation method or the like in step S37, intermediate gradations other than black and white are generated. Therefore, when an image enlargement method such as the shortest distance method that does not generate intermediate gradation is used, the binarization process in step S38 is unnecessary. Finally, the black-and-white inversion is performed in order to obtain a mask image in which the foreign matter region is black.
By the above procedure, it is possible to obtain a mask image as shown in FIG. 9B, in which the foreign matter region is black and the other regions are white.

なお、ステップS31の縮小処理の縮小率(縮小処理の繰り返し回数)、ステップS32の二値化処理の際の閾値、ステップS33のクロージング処理の繰り返し回数、ステップS34のオープニング処理の繰り返し回数、ステップS35の最小面積以下の領域の除外処理における最小面積、ステップS36の膨張処理の繰り返し回数などのパラメータは予め決めておくことができるが、その全て又は一部をユーザが自由に変更できるようにしてもよい。 The reduction rate of the reduction process in step S31 (the number of times the reduction process is repeated), the threshold value for the binarization process in step S32, the number of times the closing process in step S33 is repeated, the number of times the opening process in step S34 is repeated, and step S35. Parameters such as the minimum area in the exclusion process of the area equal to or less than the minimum area of the above and the number of repetitions of the expansion process in step S36 can be determined in advance, but all or part of them can be freely changed by the user. Good.

次に、解析処理部27は、ステップS22において得られた核位置推定画像に対し、ステップS23において得られたマスク画像を用いたマスク処理、つまりは解析対象から異物領域を除外する処理を実行し、マスク処理後の核位置推定画像を得る(ステップS24)。そして解析処理部27は、マスク処理後の核位置推定画像上で核領域の数を計数し細胞数を求める等、の解析処理を実施する(ステップS25)。核位置推定画像において異物領域を除外した領域の面積を算出し、その面積と細胞数とから細胞の密度などを算出するようにしてもよい。表示処理部28は、算出された細胞数や細胞密度などの解析結果と、マスク処理後の核位置推定画像とを表示部40に表示する(ステップS26)。 Next, the analysis processing unit 27 executes mask processing using the mask image obtained in step S23 on the nuclear position estimation image obtained in step S22, that is, a process of excluding the foreign matter region from the analysis target. , Obtain a nuclear position estimation image after mask processing (step S24). Then, the analysis processing unit 27 performs analysis processing such as counting the number of nuclear regions on the nuclear position estimation image after mask processing to obtain the number of cells (step S25). The area of the region excluding the foreign substance region in the nuclear position estimation image may be calculated, and the cell density or the like may be calculated from the area and the number of cells. The display processing unit 28 displays the calculated analysis results such as the number of cells and the cell density and the nuclear position estimation image after the mask processing on the display unit 40 (step S26).

このように本実施形態の細胞解析装置では、細胞観察画像上で異物が存在する領域を除いて細胞の数を計数することができる。したがって、細胞観察画像上に異物が存在する場合であっても、細胞数や細胞密度などを高い精度で以て求めることができる。また、本実施形態の細胞解析装置では、生細胞を非侵襲的に撮影したデータに基づいて解析を行うので、その解析に使用した細胞を引き続き培養したり別の目的に使用したりすることが可能である。 As described above, in the cell analyzer of the present embodiment, the number of cells can be counted excluding the region where the foreign substance exists on the cell observation image. Therefore, even when a foreign substance is present on the cell observation image, the number of cells, cell density, and the like can be obtained with high accuracy. Further, in the cell analyzer of the present embodiment, since the analysis is performed based on the data obtained by non-invasively photographing the living cells, the cells used for the analysis can be continuously cultured or used for another purpose. It is possible.

なお、上記説明では、核位置学習モデルを用いたFCNによる処理によって得られた核位置推定画像に対しマスク処理を行い、マスク処理後の核位置推定画像に基づいて細胞数を計数していたが、核位置推定画像における核領域の検出の精度をより高める画像処理を加えてもよい。 In the above description, the nuclear position estimation image obtained by the treatment by FCN using the nuclear position learning model is masked, and the number of cells is counted based on the nuclear position estimated image after the masking. , Image processing may be added to further improve the accuracy of detection of the nuclear region in the nuclear position estimation image.

具体的には、本出願人が先に出願したPCT/JP2019/040276号に記載のように、核位置推定画像に対して極大値領域抽出処理及び二値化処理を実行することで、種々のノイズを除去して核領域の中心点を抽出した画像を作成し、この画像に基づいて細胞数を計数してもよい。或いは、本出願人が先に出願したPCT/JP2019/040275号に記載のように、細胞核の領域のほかに細胞領域とそれ以外の領域とを識別する学習モデルを用いてIHM位相像から細胞領域を抽出し、核位置推定画像上の核領域の中で、細胞領域に含まれないものを偽の細胞核として除外する処理を実施してもよい。 Specifically, as described in PCT / JP2019 / 04276, which the applicant filed earlier, various kinds of processing can be performed by executing the maximum value region extraction process and the binarization process on the nuclear position estimation image. An image obtained by removing noise and extracting the central point of the nuclear region may be created, and the number of cells may be counted based on this image. Alternatively, as described in PCT / JP2019 / 0402275 filed earlier by the Applicant, the cell region from the IHM phase image using a learning model that distinguishes the cell region from the other region in addition to the region of the cell nucleus. Is extracted, and among the nuclear regions on the nuclear position estimation image, those not included in the cell region may be excluded as false cell nuclei.

また、細胞数の計数以外にも、培養中の細胞に関する様々な情報を収集するために、上述したように異物領域を除外する処理を実施することができる。例えば、本出願人が先に出願した特願2019−187865号では、細胞領域とそれ以外の領域とを識別する学習モデルを用いてIHM位相像から細胞領域を抽出したセグメンテーション画像を取得し、そのセグメンテーション画像に基づいて個々の細胞の形状や形態を求めることが行われている。本実施形態の細胞解析装置においても、核位置推定画像の代わりに細胞領域推定画像を用い、異物領域以外の領域に存在する細胞や異物領域と重ならない細胞の形状や形態を観察可能な画像を得るようにすることができる。また、そうした画像に基づいて、細胞全体の面積を算出したり、撮影範囲全体の面積に対する細胞面積の割合を算出したり、さらには個々の細胞の面積や長さ、或いは周囲長などの情報を算出して、個々の細胞の面積、周囲長等の平均値、中央値、分散などの統計情報を算出することもできる。 In addition to counting the number of cells, a process for excluding a foreign substance region can be performed as described above in order to collect various information about the cells being cultured. For example, in Japanese Patent Application No. 2019-187865 filed earlier by the present applicant, a segmentation image obtained by extracting a cell region from an IHM phase image using a learning model that distinguishes a cell region from another region is obtained, and the segmentation image thereof is obtained. The shape and morphology of individual cells are determined based on the segmentation image. Also in the cell analysis device of the present embodiment, a cell region estimation image is used instead of the nuclear position estimation image, and an image capable of observing the shape and morphology of cells existing in a region other than the foreign body region or cells that do not overlap with the foreign body region can be obtained. You can get it. In addition, based on such images, the area of the entire cell can be calculated, the ratio of the cell area to the area of the entire imaging range can be calculated, and information such as the area and length of individual cells or the perimeter can be obtained. It is also possible to calculate and calculate statistical information such as the area of each cell, the average value such as the perimeter, the median value, and the variance.

なお、上記実施形態の細胞解析装置では、細胞核のセマンティックセグメンテーションのための機械学習法としてFCNを用いていたが、通常の畳み込みニューラルネットワークでもよいことは明らかである。また、ニューラルネットワークを用いた機械学習法に限らず、画像についてのセマンティックセグメンテーションが可能な機械学習法であれば本発明を適用することが有効である。こうした機械学習法としては、例えばサポートベクターマシン、ランダムフォレスト、アダブーストなどがある。 In the cell analysis apparatus of the above embodiment, FCN is used as a machine learning method for semantic segmentation of cell nuclei, but it is clear that a normal convolutional neural network may be used. Further, it is effective to apply the present invention not only to the machine learning method using a neural network but also to any machine learning method capable of semantic segmentation of an image. Such machine learning methods include, for example, support vector machines, random forests, and AdaBoost.

また、上記実施形態の細胞解析装置では、顕微観察部10としてインライン型ホログラフィック顕微鏡を用いていたが、ホログラムが得られる顕微鏡であれば、オフアクシス(軸外し)型、位相シフト型などの他の方式のホログラフィック顕微鏡に置換え可能であることは当然である。 Further, in the cell analysis apparatus of the above embodiment, an in-line holographic microscope is used as the microscopic observation unit 10, but if it is a microscope that can obtain a hologram, an off-axis type, a phase shift type, or the like can be used. It is natural that it can be replaced with a holographic microscope of the above method.

また、上記実施形態や各種の変形例はあくまでも本発明の一例であり、本発明の趣旨の範囲でさらに適宜変形、修正、追加を行っても本願特許請求の範囲に包含されることは明らかである。 Further, the above-described embodiment and various modifications are merely examples of the present invention, and it is clear that even if modifications, modifications, and additions are made as appropriate within the scope of the present invention, they are included in the claims of the present application. is there.

[種々の態様]
上述した例示的な実施形態が以下の態様の具体例であることは、当業者には明らかである。
[Various aspects]
It will be apparent to those skilled in the art that the exemplary embodiments described above are specific examples of the following embodiments.

(第1項)本発明に係る細胞解析装置の一態様は、
ホログラフィック顕微鏡と、
前記ホログラフィック顕微鏡で細胞を観察することで取得されたホログラムデータに基づいて、同一の撮影範囲に対応する位相画像及び強度画像を作成する画像作成部と、
前記強度画像内において異物が存在する異物領域を識別する異物領域識別部と、
前記位相画像内において前記異物領域識別部で識別された異物領域を除外した領域に存在する細胞に関連する情報を取得する細胞情報取得部と、
を備えるものである。
(Item 1) One aspect of the cell analyzer according to the present invention is
With a holographic microscope
An image creation unit that creates a phase image and an intensity image corresponding to the same imaging range based on the hologram data acquired by observing the cells with the holographic microscope.
A foreign matter region identification unit that identifies a foreign matter region in which a foreign matter exists in the intensity image,
A cell information acquisition unit that acquires information related to cells existing in a region excluding the foreign matter region identified by the foreign matter region identification unit in the phase image, and a cell information acquisition unit.
Is provided.

第1項に記載の細胞解析装置によれば、位相画像上に映り込んでいる異物の像の影響を受けることなく、細胞数等の解析結果の精度を向上させることができる。また、解析対象である細胞の撮影(測定)は非侵襲的に行えるので、細胞を引き続き培養したり、別の目的の分析や観察に供したりすることができる。 According to the cell analysis apparatus according to the first item, the accuracy of the analysis result such as the number of cells can be improved without being affected by the image of the foreign substance reflected on the phase image. In addition, since the cells to be analyzed can be photographed (measured) non-invasively, the cells can be continuously cultured or used for analysis or observation for another purpose.

(第2項)第1項に記載の細胞解析装置において、前記異物領域識別部は、前記強度画像に対して二値化処理を行ったあと、二値画像上で異物領域の欠落部を補填する補填処理、及び小面積の領域を除去するノイズ除去処理を実施するものとすることができる。 (Item 2) In the cell analyzer according to item 1, the foreign matter region identification unit compensates for the missing portion of the foreign matter region on the binary image after performing binarization processing on the intensity image. The compensation process and the noise removal process for removing a small area area can be performed.

強度画像上で観察される異物像はその全体が同じように暗い像になっているとは限らず、多くの場合、明暗にむらがある。また、強度画像でも細胞が全く観察できないわけではないので、二値化処理の結果、細胞の一部や背景領域の一部が異物領域と同じ画素値になることもある。これに対し、第2項に記載の細胞解析装置によれば、補填処理によって明暗のむら等によって欠落した部分を補填することができる。一方、ノイズ除去処理によって、細胞の一部や背景領域の一部などの異物領域と同じ画素値となる部分を除去することができる。それによって、異物領域をより正確に抽出することができる。
なお、補填処理としては例えばクロージング処理、ノイズ除去処理としてはオープニング処理や所定の閾値以下の面積の領域を除去する処理などを用いることができる。
The foreign matter image observed on the intensity image is not always the same dark image as a whole, and in many cases, there is unevenness in brightness. Further, since the cells are not completely unobservable even in the intensity image, as a result of the binarization process, a part of the cells or a part of the background region may have the same pixel value as the foreign matter region. On the other hand, according to the cell analysis apparatus according to the second item, it is possible to make up for the missing portion due to unevenness of light and darkness by the filling process. On the other hand, the noise removal process can remove a portion having the same pixel value as a foreign matter region such as a part of a cell or a part of a background region. Thereby, the foreign matter region can be extracted more accurately.
As the compensation process, for example, a closing process can be used, and as the noise removal process, an opening process, a process of removing an area having an area equal to or less than a predetermined threshold value, or the like can be used.

(第3項)第2項に記載の細胞解析装置において、前記異物領域識別部は、前記補填処理及びノイズ除去処理のあとの二値画像上での異物領域を膨張させる膨張処理を実施するものとすることができる。 (Item 3) In the cell analysis apparatus according to the second item, the foreign matter region identification unit performs an expansion treatment for expanding the foreign matter region on the binary image after the compensation treatment and the noise removal treatment. Can be.

ホログラムデータに基づく強度画像上で観察される異物像では、その周縁部が比較的明るくなることが多い。これに対し、第3項に記載の細胞解析装置によれば、膨張処理によって二値画像上での異物領域を拡大することができるので、実際に異物が存在する領域を十分にカバーし得るような、且つ、実際には異物が存在しない領域をできるだけカバーしないようなマスク画像を作成することができる。それによって、異物領域を的確に除外して細胞に関連する情報を収集することができる。 In a foreign matter image observed on an intensity image based on hologram data, the peripheral portion thereof is often relatively bright. On the other hand, according to the cell analyzer described in the third item, the foreign matter region on the binary image can be enlarged by the expansion treatment, so that the region where the foreign matter actually exists can be sufficiently covered. Moreover, it is possible to create a mask image that does not cover the area where foreign matter does not actually exist as much as possible. Thereby, the foreign substance region can be accurately excluded and the information related to the cell can be collected.

(第4項)第1項〜第3項のいずれか1項に記載の細胞解析装置において、
前記細胞情報取得部は、
ホログラムデータに基づいて作成される細胞の位相画像を入力画像とし、これに対応する、核領域又は細胞領域を染色して得られた画像を正解画像とした学習データを用い、機械学習を行うことで作成された学習モデルが記憶される学習モデル記憶部と、
前記学習モデル記憶部に記憶されている学習モデルを用い、前記位相画像を入力画像として核領域又は細胞領域と他の領域とをセグメンテーションした領域推定画像を出力する領域推定部と、
を含むものとすることができる。
(Item 4) In the cell analyzer according to any one of items 1 to 3,
The cell information acquisition unit
Machine learning is performed using the learning data in which the phase image of the cell created based on the hologram data is used as the input image and the corresponding image obtained by staining the nuclear region or cell region is used as the correct image. A learning model storage unit that stores the learning model created in
Using the learning model stored in the learning model storage unit, a region estimation unit that outputs a region estimation image obtained by segmenting a nuclear region or a cell region and another region using the phase image as an input image, and a region estimation unit.
Can be included.

(第5項)また第4項に記載の細胞解析装置において、前記機械学習は全畳み込みニューラルネットワークを用いたものとすることができる。 (Item 5) Further, in the cell analysis apparatus according to the item 4, the machine learning can be performed by using a fully convolutional neural network.

第4項及び第5項に記載の細胞解析装置によれば、位相画像に基づいて細胞核が存在する核領域や細胞が存在する細胞領域を正確に抽出することができ、細胞に関連する情報を精度良く求めることができる。 According to the cell analyzers described in the fourth and fifth paragraphs, the nuclear region in which the cell nucleus exists and the cell region in which the cell exists can be accurately extracted based on the phase image, and information related to the cell can be obtained. It can be obtained with high accuracy.

(第6項)第4項又は第5項に記載の細胞解析装置において、前記異物領域識別部は、異物領域をマスクするマスク画像を作成し、前記細胞情報取得部は、前記領域推定画像に対し前記マスク画像を用いたマスク処理を実施し、そのマスク処理後の領域推定画像に基づいて細胞に関連する情報を取得するものとすることができる。 (Section 6) In the cell analyzer according to the fourth or fifth paragraph, the foreign matter region identification unit creates a mask image that masks the foreign matter region, and the cell information acquisition unit uses the region estimation image. On the other hand, mask processing using the mask image can be performed, and information related to cells can be acquired based on the region estimation image after the mask processing.

第6項に記載の細胞解析装置によれば 異物領域以外の領域に存在する細胞核の領域や細胞領域を正確に求めることができる。それによって、異物の映り込みの影響を排除して、細胞数、細胞密度、細胞の形状や形態、細胞面積、細胞の周囲長などの細胞に関連する情報を正確に求めることができる。 According to the cell analyzer described in item 6, it is possible to accurately determine the region of the cell nucleus and the cell region existing in the region other than the foreign body region. As a result, it is possible to eliminate the influence of the reflection of foreign substances and accurately obtain cell-related information such as cell number, cell density, cell shape and morphology, cell area, and cell perimeter.

1…細胞解析装置
10…顕微観察部
11…光源部
12…イメージセンサ
13…培養プレート
14…細胞
15…参照光
16…物体光
20…制御・処理部
21…撮影制御部
22…ホログラムデータ記憶部
23…位相/強度情報算出部
24…画像作成部
25…マスク画像作成処理部
26…核位置推定部
261…核位置学習モデル記憶部
27…解析処理部
28…表示処理部
30…入力部
40…表示部
50…FCNモデル作成部
51…学習画像データ入力部
52…画像位置合わせ処理部
53…染色画像前処理部
54…染色画像二値化部
55…学習実行部
56…モデル構築部
1 ... Cell analyzer 10 ... Microscopic observation unit 11 ... Light source unit 12 ... Image sensor 13 ... Culture plate 14 ... Cell 15 ... Reference light 16 ... Object light 20 ... Control / processing unit 21 ... Imaging control unit 22 ... Hologram data storage unit 23 ... Phase / intensity information calculation unit 24 ... Image creation unit 25 ... Mask image creation processing unit 26 ... Nuclear position estimation unit 261 ... Nuclear position learning model storage unit 27 ... Analysis processing unit 28 ... Display processing unit 30 ... Input unit 40 ... Display unit 50 ... FCN model creation unit 51 ... Learning image data input unit 52 ... Image alignment processing unit 53 ... Stained image preprocessing unit 54 ... Stained image binarization unit 55 ... Learning execution unit 56 ... Model construction unit

Claims (6)

ホログラフィック顕微鏡と、
前記ホログラフィック顕微鏡で細胞を観察することで取得されたホログラムデータに基づいて、同一の撮影範囲に対応する位相画像及び強度画像を作成する画像作成部と、
前記強度画像内において異物が存在する異物領域を識別する異物領域識別部と、
前記位相画像内において前記異物領域識別部で識別された異物領域を除外した領域に存在する細胞に関連する情報を取得する細胞情報取得部と、
を備える、細胞解析装置。
With a holographic microscope
An image creation unit that creates a phase image and an intensity image corresponding to the same imaging range based on the hologram data acquired by observing the cells with the holographic microscope.
A foreign matter region identification unit that identifies a foreign matter region in which a foreign matter exists in the intensity image,
A cell information acquisition unit that acquires information related to cells existing in a region excluding the foreign matter region identified by the foreign matter region identification unit in the phase image, and a cell information acquisition unit.
A cell analyzer.
前記異物領域識別部は、前記強度画像に対して二値化処理を行ったあと、二値画像上で異物領域の欠落部を補填する補填処理、及び小面積の領域を除去するノイズ除去処理を実施する、請求項1に記載の細胞解析装置。 The foreign matter region identification unit performs a binarization process on the intensity image, then performs a compensation process for compensating for a missing portion of the foreign matter region on the binary image, and a noise removal process for removing a small area region. The cell analyzer according to claim 1, which is carried out. 前記異物領域識別部は、前記補填処理及びノイズ除去処理のあとの二値画像上での異物領域を膨張させる膨張処理を実施する、請求項2に記載の細胞解析装置。 The cell analysis apparatus according to claim 2, wherein the foreign matter region identification unit performs an expansion treatment for expanding the foreign matter region on the binary image after the compensation treatment and the noise removal treatment. 前記細胞情報取得部は、
ホログラムデータに基づいて作成される細胞の位相画像を入力画像とし、これに対応する、核領域又は細胞領域を染色して得られた画像を正解画像とした学習データを用い、機械学習を行うことで作成された学習モデルが記憶される学習モデル記憶部と、
前記学習モデル記憶部に記憶されている学習モデルを用い、前記位相画像を入力画像として核領域又は細胞領域と他の領域とをセグメンテーションした領域推定画像を出力する領域推定部と、
を含む、請求項1〜3のいずれか1項に記載の細胞解析装置。
The cell information acquisition unit
Machine learning is performed using the learning data in which the phase image of the cell created based on the hologram data is used as the input image and the corresponding image obtained by staining the nuclear region or cell region is used as the correct image. A learning model storage unit that stores the learning model created in
Using the learning model stored in the learning model storage unit, a region estimation unit that outputs a region estimation image obtained by segmenting a nuclear region or a cell region and another region using the phase image as an input image, and a region estimation unit.
The cell analyzer according to any one of claims 1 to 3.
前記機械学習は全畳み込みニューラルネットワークを用いたものである、請求項4に記載の細胞解析装置。 The cell analysis apparatus according to claim 4, wherein the machine learning uses a fully convolutional neural network. 前記異物領域識別部は、異物領域をマスクするマスク画像を作成し、
前記細胞情報取得部は、前記領域推定画像に対し前記マスク画像を用いたマスク処理を実施し、そのマスク処理後の領域推定画像に基づいて細胞に関連する情報を取得する、請求項4又は5に記載の細胞解析装置。
The foreign matter region identification unit creates a mask image that masks the foreign matter region, and creates a mask image.
The cell information acquisition unit performs mask processing using the mask image on the region estimation image, and acquires information related to cells based on the region estimation image after the mask processing, claim 4 or 5. The cell analyzer according to.
JP2019205905A 2019-11-14 2019-11-14 Cell analysis apparatus Pending JP2021078356A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019205905A JP2021078356A (en) 2019-11-14 2019-11-14 Cell analysis apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019205905A JP2021078356A (en) 2019-11-14 2019-11-14 Cell analysis apparatus

Publications (1)

Publication Number Publication Date
JP2021078356A true JP2021078356A (en) 2021-05-27

Family

ID=75961571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019205905A Pending JP2021078356A (en) 2019-11-14 2019-11-14 Cell analysis apparatus

Country Status (1)

Country Link
JP (1) JP2021078356A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023037986A1 (en) * 2021-09-13 2023-03-16 公益財団法人京都大学iPS細胞研究財団 Method for producing pluripotent stem cells
WO2023181129A1 (en) * 2022-03-22 2023-09-28 株式会社ニコン Image processing method and image processing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023037986A1 (en) * 2021-09-13 2023-03-16 公益財団法人京都大学iPS細胞研究財団 Method for producing pluripotent stem cells
WO2023181129A1 (en) * 2022-03-22 2023-09-28 株式会社ニコン Image processing method and image processing device

Similar Documents

Publication Publication Date Title
US11978211B2 (en) Cellular image analysis method, cellular image analysis device, and learning model creation method
JP6900581B1 (en) Focus-weighted machine learning classifier error prediction for microscope slide images
JP6981533B2 (en) Cell image analysis device, cell image analysis system, training data generation method, training model generation method, training data generation program, and training data manufacturing method
JP2021064115A (en) Cell image analysis method and cell analysis device
JP2023508284A (en) Method and system for digital staining of microscopic images using deep learning
JP2022513494A (en) Computational microscope-based systems and methods for automatic imaging and analysis of pathological specimens
Kaczmarek et al. Techniques of image analysis for quantitative immunohistochemistry
JP6791245B2 (en) Image processing device, image processing method and image processing program
EP2084668A1 (en) Reconstruction and visualization of neuronal cell structures with brigh-field mosaic microscopy
JP2022506135A (en) Segmentation of 3D intercellular structures in microscopic images using iterative deep learning flows that incorporate human contributions
Holmes et al. Blind deconvolution of 3D transmitted light brightfield micrographs
JP2021078356A (en) Cell analysis apparatus
JP7070656B2 (en) Cell image analysis method, cell image analysis device, and learning model creation method
Kromp et al. Deep Learning architectures for generalized immunofluorescence based nuclear image segmentation
US20240095910A1 (en) Plaque detection method for imaging of cells
JPWO2019180833A1 (en) Cell observation device
Simon et al. Automated image analysis system for detecting boundaries of live prostate cancer cells
WO2020188813A1 (en) Cell analysis device
US11854281B2 (en) System, method, and computer-accessible medium for processing brain images and extracting neuronal structures
US20240185422A1 (en) Plaque detection method and apparatus for imaging of cells
WO2023278692A1 (en) Plaque detection method and apparatus for imaging of cells
Yu et al. Illumination compensation for microscope images based on illumination difference estimation
WO2021070372A1 (en) Cell image analysis method and cell analysis device
Pitchumani Angayarkanni et al. A novel architecture for improving tuberculosis detection from microscopic sputum smear images
Gray et al. Cell identification and sizing using digital image analysis for estimation of cell biomass in High Rate Algal Ponds