WO2017109860A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2017109860A1
WO2017109860A1 PCT/JP2015/085853 JP2015085853W WO2017109860A1 WO 2017109860 A1 WO2017109860 A1 WO 2017109860A1 JP 2015085853 W JP2015085853 W JP 2015085853W WO 2017109860 A1 WO2017109860 A1 WO 2017109860A1
Authority
WO
WIPO (PCT)
Prior art keywords
cell
correlation
feature amount
feature
image
Prior art date
Application number
PCT/JP2015/085853
Other languages
English (en)
French (fr)
Inventor
信彦 米谷
真史 山下
聖子 山▲崎▼
洋介 大坪
俊輔 武居
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to US16/060,247 priority Critical patent/US10796130B2/en
Priority to EP15911298.6A priority patent/EP3395937A4/en
Priority to JP2017557557A priority patent/JP6756339B2/ja
Priority to PCT/JP2015/085853 priority patent/WO2017109860A1/ja
Publication of WO2017109860A1 publication Critical patent/WO2017109860A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • C12M1/34Measuring or testing with condition measuring or sensing means, e.g. colony counters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Definitions

  • the present invention relates to an image processing apparatus.
  • This invention is made in view of the said problem, and makes it a subject to provide the image processing apparatus which can suppress an analysis failure.
  • a cell image acquisition unit that acquires a cell image obtained by imaging a cell, and a plurality of types of feature amounts of the cell image acquired by the cell image acquisition unit are calculated.
  • a correlation extraction unit that extracts a specific correlation among a plurality of correlations between the feature quantities calculated by the feature quantity calculation unit based on the likelihood of the feature quantity.
  • FIG. 1 is a schematic diagram illustrating an example of a configuration of a microscope observation system 1 according to an embodiment of the present invention.
  • the microscope observation system 1 performs image processing on an image acquired by imaging a cell or the like.
  • an image acquired by imaging a cell or the like is also simply referred to as a cell image.
  • the microscope observation system 1 includes an image processing device 10, a microscope device 20, and a display unit 30.
  • the microscope apparatus 20 is a biological microscope and includes an electric stage 21 and an imaging unit 22.
  • the electric stage 21 can arbitrarily operate the position of the imaging object in a predetermined direction (for example, a certain direction in a two-dimensional horizontal plane).
  • the imaging unit 22 includes an imaging element such as a CCD (Charge-Coupled Device) or a CMOS (Complementary ⁇ ⁇ MOS), and images an imaging object on the electric stage 21.
  • the microscope apparatus 20 may not include the electric stage 21 and may be a stage in which the stage does not operate in a predetermined direction.
  • the microscope apparatus 20 has functions of, for example, a differential interference microscope (DIC), a phase contrast microscope, a fluorescence microscope, a confocal microscope, and a super-resolution microscope.
  • the microscope apparatus 20 images the culture vessel placed on the electric stage 21.
  • the culture container is, for example, a well plate WP.
  • the microscope apparatus 20 captures transmitted light that has passed through the cells as an image of the cells by irradiating the cells cultured in the many wells W of the well plate WP with light.
  • images such as transmitted DIC images of cells, phase difference images, dark field images, and bright field images can be acquired.
  • the fluorescence emitted from the biological material is captured as an image of the cell by irradiating the cell with excitation light that excites the fluorescent material.
  • the microscope apparatus 20 captures fluorescence emitted from the coloring material itself taken into the biological material or fluorescence emitted by binding of the substance having the chromophore to the biological material as the above-described cell image. May be.
  • the microscope observation system 1 can acquire a fluorescence image, a confocal image, and a super-resolution image.
  • the method of acquiring the cell image is not limited to the optical microscope. For example, an electron microscope may be used.
  • an image including cells described later may be acquired using an image obtained by a different method.
  • the type of image containing cells may be selected as appropriate.
  • the cells in this embodiment are, for example, primary cultured cells, established cultured cells, tissue section cells, and the like.
  • the sample to be observed may be observed using an aggregate of cells, a tissue sample, an organ, a solid (such as an animal), and an image containing the cells may be acquired.
  • the state of the cell is not particularly limited, and may be alive or fixed, and may be “in-vivo” or “in-vitro”. Of course, you may combine the information of the living state and the fixed information.
  • the cell state may be appropriately selected according to the purpose. For example, fixation or non-fixation may be selected depending on the type (for example, protein, organelle) to be discriminated in the intracellular structure.
  • the type to be identified is not limited to the nucleus.
  • you may observe a cell after processing to a cell beforehand.
  • the cells may be observed without being treated.
  • the cells may be observed by staining with immunostaining.
  • the staining solution to be used may be selected for the type to be identified in the intracellular nuclear structure.
  • any staining method can be used.
  • cells may be treated with a photoprotein (for example, a photoprotein expressed from an introduced gene (such as a luciferase gene)) and observed.
  • a photoprotein for example, a photoprotein expressed from an introduced gene (such as a luciferase gene)
  • you may select the photoprotein to be used in the kind discriminated in the intracellular nuclear structure.
  • pretreatment for analyzing correlation acquisition such as means for observing these cells and / or a method for staining cells may be appropriately selected depending on the purpose. For example, cell dynamic information is obtained by the most suitable method for obtaining the dynamic behavior of the cell, and information on intracellular signal transmission is obtained by the optimum method for obtaining intracellular signal transmission. It doesn't matter.
  • pre-processing selected for each purpose may be different. Further, the number of types of preprocessing selected for each purpose may be reduced. For example, even if the method of acquiring the dynamic behavior of a cell and the method of acquiring signal transduction in the cell are different from each other, it is complicated to acquire each information using different methods. In addition, when it is sufficient to acquire each piece of information, the method may be different from the optimum method.
  • the well plate WP has a plurality of wells W.
  • the well plate WP has 12 ⁇ 8 96 wells W.
  • Cells are cultured in wells W under certain experimental conditions. Specific experimental conditions include temperature, humidity, culture period, elapsed time since the application of the stimulus, type and intensity of the applied stimulus, presence or absence of the stimulus, induction of biological characteristics, and the like.
  • the stimulus is, for example, a physical stimulus such as electricity, sound wave, magnetism, or light, or a chemical stimulus caused by administration of a substance or a drug.
  • Biological characteristics are characteristics indicating the stage of cell differentiation, morphology, number of cells, and the like.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of each unit included in the image processing apparatus 10 according to the present embodiment.
  • the image processing apparatus 10 is a computer apparatus that analyzes an image acquired by the microscope apparatus 20.
  • the image processing apparatus 10 includes a calculation unit 100, a storage unit 200, and a result output unit 300.
  • the image processed by the image processing apparatus 10 is not limited to an image captured by the microscope apparatus 20, for example, an image stored in advance in the storage unit 200 included in the image processing apparatus 10, It may be an image stored in advance in an external storage device.
  • the calculation unit 100 functions when the processor executes a program stored in the storage unit 200. Further, some or all of the functional units of the arithmetic unit 110 may be configured by hardware such as LSI (Large Scale Integration) or ASIC (Application Specific Integrated Circuit).
  • the calculation unit 100 includes a cell image acquisition unit 101, a feature amount calculation unit 102, a noise component removal unit 103, and a correlation extraction unit 104.
  • the cell image acquisition unit 101 acquires the cell image captured by the imaging unit 22 and supplies the acquired cell image to the cell 102.
  • the cell image acquired by the cell image acquisition unit 101 includes a plurality of images in which the cell culture state is captured in time series, and a plurality of images in which cells are cultured under various experimental conditions.
  • the feature amount calculation unit 102 calculates a plurality of types of feature amounts of the cell image supplied by the cell image acquisition unit 101.
  • This feature amount includes the brightness, area, variance, and the like of the cell image. That is, it is a feature derived from information acquired from a cell image to be captured. For example, the luminance distribution in the acquired image is calculated. Using multiple images that differ in time-series or cell-state changes such as differentiation, etc., from the change of the calculated luminance distribution for a predetermined time, or the change accompanying the cell state change such as differentiation of the calculated luminance distribution, etc. It is also possible to obtain position information indicating a change in brightness different from that and use the change in brightness as a feature amount.
  • the image is not limited to a change in time, and a plurality of images having different cell state changes such as differentiation may be used. Further, information on positions indicating different luminance changes may be used as the feature amount. For example, it may be a behavior of a cell within a predetermined time or a behavior accompanying a cell state change such as cell differentiation, or a change of a cell shape within a predetermined time or a cell state change such as differentiation of a cell shape. It does not matter if the change is accompanied. Further, if no change within a predetermined time or a change accompanying a cell state change such as differentiation is recognized from the cell image to be picked up, the change may not be changed as a feature amount.
  • the noise component removal unit 103 removes a noise component (noise) from the feature amount calculated by the feature amount calculation unit 102.
  • the correlation extraction unit 104 calculates a plurality of correlations between the feature amounts calculated by the feature amount calculation unit 102 based on the likelihood of the feature amount for the feature amount after the noise component removal unit 103 removes the noise component.
  • a specific correlation is extracted from the house.
  • the likelihood is a numerical value representing the likelihood of estimating the predetermined condition from the result when the result is calculated according to the predetermined condition.
  • the likelihood is a cost function that represents the likelihood of the parameter to be estimated when the data follows the probability model.
  • the result output unit 300 outputs the calculation result by the calculation unit 100 to the display unit 30.
  • the result output unit 300 may output the calculation result by the calculation unit 100 to an output device other than the display unit 30, a storage device, or the like.
  • the display unit 30 displays the calculation result output by the result output unit 300.
  • FIG. 3 is a flowchart illustrating an example of a calculation procedure of the calculation unit 100 according to the present embodiment. Note that the calculation procedure shown here is an example, and the calculation procedure may be omitted or added.
  • the cell image acquisition unit 101 acquires a cell image (step S10).
  • This cell image includes images of a plurality of types of biological tissues having different sizes such as genes, proteins, and organelles.
  • the cell image includes cell shape information.
  • a dynamic behavior is acquired from a cell image having a different time series or a different cell state such as differentiation.
  • the feature amount calculation unit 102 extracts the cell image included in the cell image acquired in step S10 for each cell (step S20).
  • the feature amount calculation unit 102 extracts a cell image by performing image processing using a known technique on the cell image.
  • the feature amount calculation unit 102 extracts a cell image by performing image contour extraction, pattern matching, and the like.
  • the feature quantity calculation unit 102 determines the type of cell for the cell image extracted in step S20 (step S30). Further, the feature amount calculation unit 102 determines the constituent elements of the cells included in the cell image extracted in step S20 based on the determination result in step S30 (step S40).
  • the cell components include cell organelles (organelles) such as cell nucleus, lysosome, Golgi apparatus, mitochondria, and proteins constituting organelles.
  • the cell type is determined, but the cell type may not be determined. In this case, if the type of cell to be introduced is determined in advance, the information may be used. Of course, the type of cell need not be specified.
  • the feature quantity calculation unit 102 calculates the feature quantity of the image for each cell component determined in step S40 (step S50).
  • the feature amount includes a luminance value of the pixel, an area of a certain area in the image, a variance value of the luminance of the pixel, and the like. Further, there are a plurality of types of feature amounts according to the constituent elements of the cells.
  • the feature amount of the image of the cell nucleus includes the total luminance value in the nucleus, the area of the nucleus, and the like.
  • the feature amount of the cytoplasm image includes the total luminance value in the cytoplasm, the area of the cytoplasm, and the like.
  • the feature amount of the image of the whole cell includes the total luminance value in the cell, the area of the cell, and the like.
  • the feature amount of the mitochondrial image includes the fragmentation rate. Note that the feature amount calculation unit 102 may calculate the feature amount by normalizing it to a value between 0 (zero) and 1, for example.
  • the feature amount calculation unit 102 may calculate the feature amount based on information on the condition of the experiment for the cell associated with the cell image. For example, in the case of a cell image captured when an antibody is reacted with a cell, the feature amount calculation unit 102 may calculate a characteristic amount that is unique when the antibody is reacted. In addition, in the case of a cell image captured when cells are stained or when fluorescent proteins are added to cells, the feature amount calculation unit 102 is used when the cells are stained or when fluorescent proteins are added to the cells A characteristic amount peculiar to each may be calculated.
  • the storage unit 200 may include an experimental condition storage unit 202.
  • the experimental condition storage unit 202 stores information on experimental conditions for cells associated with cell images for each cell image.
  • the feature amount calculation unit 102 supplies the feature amount calculated in step S50 to the noise component removal unit 103.
  • the noise component removing unit 103 removes the noise component from the feature amount calculated in step S50 (step S60). Specifically, the noise component removal unit 103 acquires information indicating the normal range or the abnormal range of the feature amount. Information indicating the normal range or the abnormal range of the feature amount is determined in advance based on the characteristics of the cell captured in the cell image. For example, the normal range for the total luminance value in the nucleus among the feature values of the cell nucleus image is determined based on the characteristics of the cell nucleus image. When the calculated feature amount is not included in the normal range, the noise component removal unit 103 removes the feature amount as a noise component. Here, the noise component removing unit 103 removes the feature amount for each cell when removing the feature amount as the noise component.
  • a plurality of feature amounts may be calculated for a certain cell.
  • the total intracellular luminance value, the total nuclear luminance value, and the area of the nucleus may be calculated as feature amounts.
  • the noise component removing unit 103 when removing the total intracellular luminance value as a noise component for a certain cell, the noise component removing unit 103 also removes the total nuclear luminance value of the cell and the area of the nucleus. That is, the noise component removing unit 103 removes other feature values of the cell when at least one feature value is not included in the normal range among the plurality of feature values calculated for a certain cell.
  • the noise component removal unit 103 captures a noise component from the feature amount supplied to the correlation extraction unit 104 based on information indicating the characteristics of the cells captured in the cell image. Remove every cell.
  • the noise component removal unit 103 can exclude a feature amount in units of cells when there is a feature amount with relatively low reliability. That is, according to the noise component removal unit 103, the reliability of the feature amount can be improved.
  • the noise component removing unit 103 supplies the feature amount to the correlation extracting unit 104.
  • the noise component removal unit 103 is not an essential component and can be omitted depending on the state of the cell image and the state of calculation of the feature amount.
  • the correlation extraction unit 104 extracts a specific correlation from a plurality of correlations between the feature amounts calculated by the feature amount calculation unit 102 based on the likelihood of the feature amount using sparse estimation (Ste S70).
  • Step S70 the process performed by the correlation extraction unit 104 will be described more specifically.
  • Correlation extracting section 104 acquires the feature quantity after the noise component is removed in step S60. This feature amount is calculated for each cell by the feature amount calculation unit 102 in step S50. A calculation result of a feature amount of a certain protein by the feature amount calculation unit 102 will be described with reference to FIG.
  • FIG. 4 is a schematic diagram illustrating an example of a feature amount calculation result by the feature amount calculation unit 102 of the present embodiment.
  • the feature amount calculation unit 102 calculates a plurality of feature amounts for the protein 1 for each cell and for each time. In this example, the feature amount calculation unit 102 calculates feature amounts for N cells from cell 1 to cell N. In this example, the feature amount calculation unit 102 calculates feature amounts for seven times from time 1 to time 7. In this example, the feature amount calculation unit 102 calculates K types of feature amounts from the feature amount k1 to the feature amount kK. That is, in this example, the feature amount calculation unit 102 calculates feature amounts in the directions of the three axes. Here, an axis in the cell direction is described as axis Nc, an axis in the time direction as axis N, and an axis in the feature quantity direction as axis d1.
  • the K types of feature quantities from the feature quantity k1 to the feature quantity kK are combinations of feature quantities for protein 1.
  • the types and combinations of feature amounts may differ.
  • FIG. 5 is a diagram illustrating an example of a feature amount matrix X for each cell according to the present embodiment.
  • the feature amount of a certain cell can also be indicated by a matrix X shown in FIG. 5 with the axis N in the row direction and the axis d in the column direction.
  • each element of the matrix X is shown by the average value of the cell population, but a statistic such as a median value or a mode value can also be used.
  • a matrix X of feature values for each cell may be used.
  • FIG. 6 is a schematic diagram illustrating an example of a correlation between feature amounts according to the present embodiment.
  • the correlation extraction unit 104 extracts a specific correlation from among a plurality of correlations between the feature amounts calculated by the feature amount calculation unit 102.
  • FIG. 7 is a schematic diagram illustrating an example of a specific correlation of the present embodiment.
  • the specific correlation is a correlation selected by mathematical calculation from among a plurality of correlations between feature quantities.
  • the number of specific correlations is smaller than the number of correlations between feature quantities before being extracted by the correlation extraction unit 104. That is, the correlation extraction unit 104 makes the number of correlations between feature quantities sparse.
  • the correlation extraction unit 104 uses the sparse estimation for the correlation between the feature quantities, thereby reducing the number of correlations between the feature quantities. An example of sparse estimation by the correlation extraction unit 104 will be described.
  • Equation (1) shows the likelihood in the Gaussian model used by the correlation extraction unit 104 for sparse estimation.
  • the term “ ⁇ ( ⁇ )” is a regularization term.
  • the function form of the regularization term has various forms depending on the correlation attribute to be extracted.
  • represents the strength of regularization, and the greater the value, the more likely that the components of the accuracy matrix are likely to be sparse.
  • the variance covariance matrix, the accuracy matrix, and the sample covariance matrix are divided into block matrices as shown in equation (6), so that equation (4) as shown in equation (7). Can be transformed.
  • Equation (7) can be reduced to Equation (8), which is a general Lasso regression optimization problem, and can be obtained with an existing solver or the like.
  • the correlation extraction unit 104 performs sparse estimation so that the number of correlations between feature quantities is sparse. For this reason, according to the image processing apparatus 10, it is possible to perform analysis in a state where the number of correlations between feature quantities is reduced. That is, according to the image processing apparatus 10, it is possible to reduce the amount of calculation for analyzing the correlation between the feature amounts. Since the number of correlations between feature quantities can be reduced using the likelihood as an index, it is possible to suppress analysis failures due to, for example, an arbitrary reduction in the amount of computation of the correlation between feature quantities. it can. Moreover, in order to acquire the correlation of a feature-value from the image containing a cell, the feature-value was acquired.
  • the feature amount information other than the image information, such as luminance information directly derived from the image, is also used.
  • the location of the luminance information in the cell is estimated from the shape of the image.
  • the location (nucleus, nuclear membrane, cytoplasm) of the stained part (the part having luminance information) of the stained cell is estimated.
  • the correlation between the feature amounts is acquired using the information estimated from the image information in addition to the information directly derived from the image information, the calculation amount is enormous. Accordingly, since the correlation extraction unit 104 performs sparse estimation, the number of correlations between the feature quantities can be sparse, so that the amount of computation can be suppressed from becoming enormous.
  • the correlation in the cell for example, when acquiring the correlation in the cell, for example, there may be a case where a plurality of cells can be acquired in the image. Correlation can be obtained. In this case, if the correlation in a plurality of cells is acquired, the correlation in a plurality of cells can be acquired as compared with the case of acquiring the correlation of a single cell. The accuracy of the route can be improved. When acquiring the correlation of a plurality of cells in order to improve accuracy, the amount of calculation performed to acquire the correlation becomes enormous. In this case, since the amount of calculation can be reduced using the likelihood as an index, analysis failure can be suppressed.
  • the predetermined cell may be correlated with a plurality of cells, and cells other than the predetermined cell may also be correlated with the plurality of cells.
  • the accuracy of the signal transmission pathway between cells calculated as acquisition of the correlation can be increased.
  • the feature amount calculated by the feature amount calculation unit 102 is involved in signal transmission in the cell when, for example, the signal transmission in the cell is obtained as a correlation after the cell receives a signal from outside the cell.
  • the type of protein to be extracted may be extracted as a feature quantity. That is, for example, the type of a substance involved in intracellular signal transmission may be used, or a change in cell shape as a result of signal transmission within the cell may be used.
  • the substance involved in intracellular signal transduction may be specified by NMR or the like, or may be a method of inferring the interacting partner from the used staining solution.
  • FIG. 8 is a flowchart illustrating an example of a cross-validation procedure by the correlation extraction unit 104 of the present embodiment.
  • the correlation extraction unit 104 acquires the matrix X, the regularization parameter ⁇ , and the division number K (step S100).
  • the correlation extraction unit 104 divides the matrix X based on the division number K acquired in step S100 (step S110).
  • the correlation extraction unit 104 processes a double loop of a regularization parameter ⁇ loop (step S120) and a division number K loop (step S130).
  • the correlation extraction unit 104 calculates the likelihood Lk using the matrix Xk and the matrix X / k (step S140).
  • the correlation extraction unit 104 calculates the average likelihood L ⁇ of the likelihood Lk in a certain regularization parameter ⁇ (step S150). Details of the procedure for calculating the average likelihood L ⁇ by the correlation extraction unit 104 will be described with reference to FIG.
  • FIG. 9 is a schematic diagram illustrating an example of a procedure for calculating the average likelihood L ⁇ by the correlation extraction unit 104 of the present embodiment.
  • the correlation extraction unit 104 divides the matrix X into K pieces in the cell direction Nc in the above-described loop of the division number K.
  • the correlation extraction unit 104 calculates the likelihood Lk for the matrix X divided into K pieces.
  • the correlation extraction unit 104 calculates a regularization parameter ⁇ whose average likelihood L ⁇ indicates the maximum value Max (L ⁇ ) as the regularization parameter ⁇ to be calculated (step S160), and calculates the regularization parameter ⁇ . The calculation ends.
  • An example of a procedure for calculating the regularization parameter ⁇ by the correlation extraction unit 104 will be described.
  • the correlation extraction unit 104 calculates the likelihood L ⁇ when the regularization parameter ⁇ is changed from 0 to 1. Specifically, the correlation extraction unit 104 sets the regularization parameter ⁇ to a certain value from 0 to 1, and calculates the likelihood Lk shown in FIG. The correlation extraction unit 104 calculates the average of the likelihoods Lk, that is, the average likelihood L ⁇ , and generates a correspondence between the regularization parameter ⁇ and the average likelihood L ⁇ .
  • FIG. 10 shows the correspondence between the regularization parameter ⁇ generated by the correlation extraction unit 104 and the average likelihood L ⁇ .
  • FIG. 10 is a graph showing an example of the relationship between the average likelihood L ⁇ and the regularization parameter ⁇ of the present embodiment.
  • the average likelihood L ⁇ indicates the maximum value in the regularization parameter ⁇ a.
  • the correlation extraction unit 104 calculates the regularization parameter ⁇ a as the regularization parameter ⁇ to be calculated.
  • the correlation extraction unit 104 divides the matrix X in the cell direction Nc when dividing the matrix X into K pieces by the division number K. In other words, the correlation extracting unit 104 extracts a specific correlation by obtaining the likelihood L of the feature amount based on the number of cells captured in the cell image.
  • the correlation extraction unit 104 can also divide the matrix X in the time direction N.
  • a plurality of cell images are required in the time direction N. That is, in order for the correlation extraction unit 104 to divide the matrix X in the time direction N, a plurality of cell images captured at different times are necessary.
  • the correlation extraction unit 104 divides the matrix X in the cell direction Nc, a plurality of cell images captured at different times are not necessary. That is, the correlation extraction unit 104 of the present embodiment can calculate the regularization parameter ⁇ from, for example, one cell image without a plurality of cell images captured at different times.
  • Biological interpretation of sparse estimation results Next, biological interpretation of the sparse estimation result by the correlation extraction unit 104 will be described with reference to FIGS. Based on the biological information, a biological interpretation can be added to the sparse estimation result by the correlation extraction unit 104.
  • the biological information is described as being stored in advance in the storage unit 200, but is not limited thereto.
  • Biological information may be supplied from outside the microscope observation system 1 via a network or a portable storage medium.
  • Biological information includes an intracellular component element annotation database, a feature quantity annotation database, and the like.
  • An intracellular constituent element is an element that constitutes a cell. Examples of elements constituting cells include proteins, genes, compounds, and the like.
  • a specific example of the procedure of biological interpretation of the sparse estimation result by the correlation extraction unit 104 will be described.
  • FIG. 11 is a schematic diagram illustrating an example of a correlation result of feature amount extraction by the correlation extraction unit 104 of the present embodiment.
  • the correlation extraction unit 104 extracts the correlation between the feature amounts of the six types of proteins A to F and the mitochondria.
  • the cell image includes cells including protein A to protein F and mitochondria.
  • the feature amount calculation unit 102 calculates the types of feature amounts corresponding to these proteins A to F and mitochondria. In other words, the feature amount calculation unit 102 calculates a feature amount of a type corresponding to the type of the constituent element in the cell included in the cell captured in the cell image among the plurality of types of feature amounts.
  • the correlation extraction unit 104 extracts three types of correlations, that is, a correlation R1, a correlation R2, and a correlation R3 between the feature amount of the protein A and the feature amount of the protein D.
  • the correlation R1 is a correlation between the feature amount A3 of the protein A and the feature amount D2 of the protein D.
  • the correlation R2 is a correlation between the feature amount A1 of the protein A and the feature amount D3 of the protein D.
  • the correlation R3 is a correlation between the feature amount A4 of the protein A and the feature amount D1 of the protein D.
  • the feature amount A1 is a dispersion value of the protein A image.
  • the feature amount D3 is the luminance value of the protein D image.
  • the correlation extraction unit 104 extracts a correlation R4 between the feature amount of protein A and the feature amount of mitochondria.
  • the correlation R4 is a correlation between the feature amount A2 of protein A and the feature amount M1 of mitochondria.
  • the feature amount A2 is, for example, the ratio of the total nuclear luminance value to the total intracellular luminance value of the protein A image.
  • the feature amount M1 is a mitochondrial fragmentation rate indicated by a mitochondrial image.
  • FIG. 12 is a table showing an example of the intracellular component annotation database of the present embodiment.
  • This intracellular component annotation database associates the types of intracellular components with the functions of the intracellular components.
  • the intracellular component element annotation database is stored in advance in the storage unit 200. Specifically, the type “protein A” is associated with the function “transcription factor (promotion)” in the intracellular component annotation database. In the intracellular component annotation database, the type “protein B” is associated with the function “kinase”.
  • FIG. 13 is a table showing an example of the feature annotation database according to the present embodiment.
  • This feature amount annotation database associates NW elements, feature amounts, change directions of feature amounts, and information indicating biological meaning.
  • the feature amount annotation database is stored in the storage unit 200 in advance.
  • the NW element “transcription factor (promotion)” the feature “total nuclear brightness value / intracellular brightness value”, the feature change “UP”, biology The meaning “promotion of transcription” is associated with each other.
  • NW element “mitochondrion”, feature “fragmentation rate”, feature change “UP” and biological meaning “proliferation promotion, oxidative stress rise, mitophagy enhancement” are associated with each other.
  • the feature annotation database is a specific example of the type storage unit 201 included in the storage unit 200. That is, the type storage unit 201 stores the types of intracellular components included in the cells captured in the cell image and the types of feature amounts in association with each other.
  • the function of protein A is “transcription factor (promotion)” based on the intracellular component annotation database. If the feature quantity “total nuclear brightness value / intracellular brightness value” associated with “transcription factor (promotion)” indicates a feature quantity change “UP” based on the feature quantity annotation database, the organism It can be determined that the scientific meaning is “transcription promotion”. In addition, when the feature amount “fragmentation rate” associated with “mitochondrion” indicates a feature amount change “UP” based on the feature amount annotation database, its biological meaning is “proliferation, oxidative stress increase, It can be determined that "mitigation enhancement".
  • Biological information of the feature amount is created from the feature amount of the cell used for acquiring the correlation. That is, biological information of the feature amount of the cell used for acquiring the correlation is created. Thereby, biological interpretation of the extracted correlation can be performed.
  • the elements of the feature amount network can be extracted using the sparse estimation result by the correlation extraction unit 104.
  • the feature amount network refers to a network of correlation between feature amounts.
  • the elements of the feature amount network include nodes, edges, subgraphs (clusters), and links.
  • Features of the feature amount network include the presence / absence of a hub and the presence / absence of a cluster. For example, whether or not a certain node has a hub can be determined based on the value of the partial correlation matrix.
  • the hub is a feature quantity having a relatively large number of correlations with other feature quantities.
  • the correlation extraction unit 104 can specify one or more elements from a plurality of elements constituting the feature amount network from the calculated feature amount network using sparse estimation. As a result, it is possible to extract elements to be preferentially considered when acquiring the correlation. By extracting, other correlations can be taken into consideration.
  • the correlation extraction unit 104 can specify one or more element groups from a plurality of element groups constituting the feature amount network from the calculated feature amount network using sparse estimation.
  • the element group for example, a plurality of proteins having the same protein secondary structure may be used as one element group.
  • FIG. 14 is a diagram illustrating an example of a comparison type of the feature amount network according to the present embodiment.
  • the feature amount networks can be compared with each other at each granularity from micro to macro. Specifically, it is possible to detect a change in edge granularity based on a change in relationship. This edge granularity change detection has d (d-1) / d scores. Also, it is possible to detect changes in node granularity based on changes in variables. This node granularity change detection has d scores.
  • This cluster granularity change detection has d scores. Based on network changes, it is possible to detect changes in network granularity. This change detection of network granularity has one score.
  • the change detection of the node granularity is performed by a probabilistic neighborhood method, for example. Detection of changes in node granularity by this probabilistic neighborhood method is possible by calculating the neighborhood probability between the i-th element and the j-th element of the dissimilarity matrix and scoring this neighborhood probability. Moreover, the change of a score can be graphed by arranging the score about a certain index of a certain protein for every protein and every index. For example, Tsuyoshi Ide, Spiros Papadimitiou, and Michael Vlachos are described in Processeds of the Seventh IEEE International Conference Mining (IC28), Op5-3, Oct7-3p.
  • EGONET refers to an individual node (Ego) in a feature amount network composed of nodes and edges, and a relationship between a node of interest, a node related to the node of interest, and an edge stretched by these nodes.
  • FIG. According to EGONET, an edge for the node of interest is extracted from all edges included in the feature amount network. For this reason, comparing EGONETs is easier than comparing feature quantity networks. This is useful for visualizing the correlation structure around the node of interest.
  • a feature network for cells collected from a tissue of a person suffering from a disease can be compared to a feature network for cells collected from a tissue of a healthy person.
  • the correlation extraction unit 104 uses sparse estimation to derive a sparse feature network that is easy to interpret. Therefore, comparison of feature networks is easier than when sparse estimation is not used. is there.
  • network learning by SVM, random forest, or the like may be used in comparison between feature amount networks. Further, in this network learning, the regularization parameter may be adjusted in order to improve the classification performance.
  • FIG. 15 is a diagram illustrating an example of a regularization parameter determination procedure using the biological knowledge of the present embodiment.
  • protein-to-protein binding based on biological knowledge is predefined. Specifically, based on biological knowledge, a bond that “should have a bond” and a “should have no bond” between a feature quantity of one protein and a feature quantity of another protein are previously defined as a knowledge database.
  • this predefined knowledge database may be stored in the storage unit 200.
  • the regularization parameter ⁇ is determined by calculating the distance between this knowledge database and the feature amount network indicated by the sparse estimation result by the correlation extraction unit 104, that is, Fscore.
  • This Fscore is expressed as in Expression (16) by the accuracy (Precision) shown in Expression (14) and the reproducibility (Recall) shown in Expression (15).
  • Fscore depends on the regularization parameter, and takes the maximum value when the estimated network is closest to the knowledge database, and adopts the regularization parameter at this time. Also, as shown in FIG. 15, the range of regularization parameters can be narrowed even when the knowledge database is not sufficient, that is, when the matrix components are not completely labeled.
  • FIG. 16 shows the relationship between TP, FP, and FN shown in equations (14) and (15).
  • FIG. 16 is a diagram illustrating the relationship between the knowledge base network and the prediction network regarding the presence / absence of coupling of the feature amount network according to the present embodiment.
  • the precision is a ratio of an element that is actually an edge among elements that are predicted to be an edge for a certain element of the feature amount network.
  • reproducibility is a ratio of elements that are predicted to be edges to elements that are actually edges.
  • the correlation extraction unit 104 may extract a specific correlation by obtaining the likelihood of the feature amount based on information indicating the characteristics of the cells captured in the cell image.
  • you may verify the correlation extracted by the above-mentioned embodiment using academic literature and a database suitably.
  • information from the divided database may be selected as appropriate.
  • the divided database may be divided by type such as gene and protein.
  • the extracted correlation may be verified by combining verification results of a plurality of databases.
  • a program for executing each process of the image processing apparatus 10 according to the embodiment of the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by a computer system and executed. Accordingly, the various processes described above may be performed.
  • the “computer system” referred to here may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
  • the “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.
  • the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
  • the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
  • the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the program may be for realizing a part of the functions described above. Furthermore, what can implement

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Zoology (AREA)
  • Wood Science & Technology (AREA)
  • Biotechnology (AREA)
  • Organic Chemistry (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biochemistry (AREA)
  • General Engineering & Computer Science (AREA)
  • Sustainable Development (AREA)
  • Genetics & Genomics (AREA)
  • Microbiology (AREA)
  • Medicinal Chemistry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
  • Microscoopes, Condenser (AREA)
  • Image Analysis (AREA)

Abstract

画像処理装置は、細胞が撮像された細胞画像を取得する細胞画像取得部と、細胞画像取得部が取得する細胞画像の複数種類の特徴量を算出する特徴量算出部と、特徴量の尤度に基づいて、特徴量算出部が算出する特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する相関関係抽出部とを備える。

Description

画像処理装置
 本発明は、画像処理装置に関するものである。
 生物科学や医学等において、生物の健康や疾患等の状態は、例えば、細胞や細胞内の小器官等の状態と関連性があることが知られている。そのため、これら関連性を解析することは、生物科学や医学等の諸処の課題を解決する一つの手段になる。また、細胞間、或いは細胞内で伝達される情報の伝達経路を解析することは、例えば、工業用途でのバイオセンサーや、疾病予防を目的とした製薬等の研究に役立てることができる。細胞や組織片等に関する種々の解析技術として、例えば、画像処理を用いた技術が知られている(例えば、特許文献1参照)。
米国特許第0228069号明細書
 しかしながら、細胞内或いは細胞間の相互作用を算出する場合に、撮像された細胞を含む画像を画像処理して得られる情報を用いると、得られる情報量が多いので、相関を取得するために、莫大な演算量が必要となり、解析不良となる可能性がある。
 本発明は、上記問題に鑑みてなされたものであり、解析不良を抑制することができる画像処理装置を提供することを課題とする。
 上記問題を解決するために、本発明の一態様は、細胞が撮像された細胞画像を取得する細胞画像取得部と、前記細胞画像取得部が取得する前記細胞画像の複数種類の特徴量を算出する特徴量算出部と、前記特徴量の尤度に基づいて、前記特徴量算出部が算出する前記特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する相関関係抽出部と、を備える画像処理装置である。
 本発明によれば、画像処理による解析不良を抑制することができる。
本発明の実施形態による顕微鏡観察システムの構成の一例を示す模式図である。 本実施形態の画像処理装置が備える各部の機能構成の一例を示すブロック図である。 本実施形態の演算部の演算手順の一例を示す流れ図である。 本実施形態の特徴量算出部による特徴量の算出結果の一例を示す模式図である。 本実施形態の細胞毎の特徴量の行列の一例を示す図である。 本実施形態の特徴量間の相関関係の一例を示す模式図である。 本実施形態の特定の相関関係の一例を示す模式図である。 本実施形態の相関関係抽出部によるクロスバリデーションの手順の一例を示す流れ図である。 本実施形態の相関関係抽出部による平均尤度の算出手順の一例を示す模式図である。 本実施形態の平均尤度と正則化パラメータとの関係の一例を示すグラフである。 本実施形態の相関関係抽出部による特徴量の相関関係の抽出結果の一例を示す模式図である。 本実施形態のタンパク質アノテーション・データベースの一例を示す表である。 本実施形態の特徴量アノテーション・データベースの一例を示す表である。 本実施形態の特徴量ネットワークの比較類型の一例を示す図である。 本実施形態の生物学的知識を用いた正則化パラメータの決定手順の一例を示す図である。 本実施形態の特徴量ネットワークの結合有無についての、知識ベースネットワークと予測ネットワークとの関係性を示す図である。
 [実施形態]
 以下、図面を参照して、本発明の実施の形態について説明する。図1は、本発明の実施形態による顕微鏡観察システム1の構成の一例を示す模式図である。
 顕微鏡観察システム1は、細胞等を撮像することにより取得される画像に対して、画像処理を行う。以下の説明において、細胞等を撮像することにより取得される画像を、単に細胞画像とも記載する。顕微鏡観察システム1は、画像処理装置10と、顕微鏡装置20と、表示部30とを備える。
 顕微鏡装置20は、生物顕微鏡であり、電動ステージ21と、撮像部22とを備える。電動ステージ21は、所定の方向(例えば、水平方向の二次元平面内のある方向)に、撮像対象物の位置を任意に稼働可能である。撮像部22は、CCD(Charge-Coupled Device)やCMOS(Complementary MOS)などの撮像素子を備えており、電動ステージ21上の撮像対象物を撮像する。なお、顕微鏡装置20に電動ステージ21を備えていなくてもよく、ステージが所定方向に稼働しないステージとしても構わない。
 より具体的には、顕微鏡装置20は、例えば、微分干渉顕微鏡(Differential Interference Contrast microscope;DIC)や位相差顕微鏡、蛍光顕微鏡、共焦点顕微鏡、超解像顕微鏡等の機能を有する。顕微鏡装置20は、電動ステージ21上に載置された培養容器を撮像する。この培養容器とは、例えば、ウェルプレートWPである。顕微鏡装置20は、ウェルプレートWPが有する多数のウェルWの中に培養された細胞に光を照射することで、細胞を透過した透過光を細胞の画像として撮像する。これによって、細胞の透過DIC画像や、位相差画像、暗視野画像、明視野画像等の画像を取得することができる。さらに、細胞に蛍光物質を励起する励起光を照射することで、生体物質から発光される蛍光を細胞の画像として撮像する。また、顕微鏡装置20は、生体物質内に取り込まれた発色物質そのものから発光される蛍光や、発色団を持つ物質が生体物質に結合することによって発光される蛍光を、上述した細胞の画像として撮像してもよい。これにより、顕微鏡観察システム1は、蛍光画像、共焦点画像、超解像画像を取得することができる。なお、細胞の画像を取得する方法は、光学顕微鏡に限られない。例えば、電子顕微鏡でも構わない。また、後述する細胞を含む画像は、異なる方式により得られた画像を用い、相関を取得しても構わない。すなわち、細胞を含む画像の種類は適宜選択しても構わない。本実施形態における細胞とは、例えば、初代培養細胞や、株化培養細胞、組織切片の細胞等である。細胞を観察するために、観察される試料は細胞の集合体や組織試料、臓器、固体(動物など)を用い観察し、細胞を含む画像を取得しても構わない。なお、細胞の状態は、特に制限されず、生きている状態であっても、或いは固定されている状態であってもよく、“in-vivo”または“in-vitro”のどちらでもよい。勿論、生きている状態の情報と、固定されている情報とを組み合わせても構わない。
 細胞の状態は、目的別に適宜選択しても構わない。例えば、細胞内の構造物において判別する種類(例えば、タンパク質、オルガネラ)により、固定と未固定を選択しても構わない。また、固定した細胞で細胞の動的挙動を取得する場合には、条件の異なる複数の固定細胞を作成し、動的挙動を取得する。細胞内の構造物において、判別する種類は核内に限られない。
 また、細胞を観測するために、細胞に予め処理した後に、細胞を観察しても構わない。勿論、細胞を観察するために、細胞に処理しない状態で細胞を観察しても構わない。細胞を観察する場合には、細胞を免疫染色により染色し、観察しても構わない。例えば、細胞内の核内構造において判別する種類において、用いる染色液を選択しても構わない。また染色方法に関しては、あらゆる染色方法を用いることができる。例えば主に組織染色に用いられる各種特殊染色、塩基配列の結合を利用したハイブリダイゼーションなどがある。
 また、細胞に発光タンパク質(例えば、導入された遺伝子(ルシフェラーゼ遺伝子など)から発現された発光タンパク質)で処理し、観察しても構わない。例えば、細胞内の核内構造において判別する種類において、用いる発光タンパク質を選択しても構わない。
また、これらの細胞を観察する手段及び又は細胞を染色する方法などの相関取得を解析するための前処理は、目的別に適宜選択しても構わない。たとえば、細胞の動的挙動を得る場合に最適な手法により細胞の動的な情報を取得して、細胞内のシグナル伝達を得る場合には最適な手法により細胞内のシグナル伝達に関する情報を取得しても構わない。これら、目的別に選択される前処理が異なっていても構わない。また、目的別に選択される前処理の種類が少なくなるようにしても構わない。例えば、細胞の動的挙動を取得する手法と細胞内のシグナル伝達を取得する手法とがそれぞれ、最適な手法が異なっていても、それぞれ異なる手法でそれぞれの情報を取得することは煩雑となるために、それぞれの情報を取得するのに十分な場合には、最適手法とは異なり、それぞれが共通する手法で行っても構わない。
 ウェルプレートWPは、複数のウェルWを有する。この一例では、ウェルプレートWPは、12×8の96個のウェルWを有する。細胞は、ウェルWの中において、特定の実験条件のもと培養される。特定の実験条件とは、温度、湿度、培養期間、刺激が付与されてからの経過時間、付与される刺激の種類や強さ、刺激の有無、生物学的特徴の誘導等を含む。刺激とは、例えば、電気、音波、磁気、光等の物理的刺激や、物質や薬物の投与による化学的刺激等である。また、生物学的特徴とは、細胞の分化の段階や、形態、細胞数等を示す特徴である。
 図2は、本実施形態の画像処理装置10が備える各部の機能構成の一例を示すブロック図である。画像処理装置10は、顕微鏡装置20によって取得された画像を解析するコンピュータ装置である。画像処理装置10は、演算部100と、記憶部200と、結果出力部300とを備える。なお、画像処理装置10によって画像処理される画像は、顕微鏡装置20によって撮像される画像だけに限らず、例えば、画像処理装置10が備える記憶部200に予め記憶されている画像や、不図示の外部記憶装置に予め記憶されている画像であってもよい。
 演算部100は、プロセッサが記憶部200に格納されたプログラムを実行することにより機能する。また、これらの演算部110の各機能部のうちの一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアによって構成されていてもよい。演算部100は、細胞画像取得部101と、特徴量算出部102と、雑音成分除去部103と、相関関係抽出部104とを備える。
 細胞画像取得部101は、撮像部22が撮像した細胞画像を取得し、取得した細胞画像を102に供給する。ここで、細胞画像取得部101が取得する細胞画像には、細胞の培養状態が時系列に撮像された複数の画像や、様々な実験条件において細胞が培養された複数の画像が含まれる。
 特徴量算出部102は、細胞画像取得部101が供給する細胞画像の複数種類の特徴量を算出する。この特徴量には、細胞画像の輝度、面積、分散などが含まれる。
 すなわち、撮像される細胞画像から取得される情報から導出される特徴である。例えば、取得される画像における輝度分布を算出する。時系列もしくは、分化等の細胞状態の変化で異なる複数の画像を用い、算出される輝度分布の所定時間の変化、もしくは、算出される輝度分布の分化等の細胞状態変化に伴う変化から、他とは異なる輝度の変化を示す位置情報を求め、輝度の変化を特徴量としてもよい。この場合に、時間の変化に限られず、分化等の細胞の状態の変化が異なる複数の画像を用いても構わない。また、異なる輝度の変化を示す位置の情報を特徴量としてもよい。例えば、細胞の所定時間内の挙動、もしくは、細胞の分化等の細胞状態変化に伴う挙動でも構わないし、細胞の形状の所定時間内の変化、もしくは、細胞の形状の分化等の細胞状態変化に伴う変化でも構わない。また、撮像される細胞画像から、所定時間内の変化、もしくは、分化等の細胞状態変化に伴う変化が認められない場合は、変化しないことも特徴量としても構わない。
 雑音成分除去部103は、特徴量算出部102が算出した特徴量のうち、雑音成分(ノイズ)を除去する。
 相関関係抽出部104は、雑音成分除去部103が雑音成分を除去した後の特徴量について、特徴量の尤度に基づいて、特徴量算出部102が算出する特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する。ここで、尤度とは、所定条件に従って結果を算出する場合に、その結果から所定条件を推測する尤もらしさを表す数値である。また、尤度とは、データが確率モデルに従う場合に、推定すべきパラメータの尤もらしさを表すコスト関数である。
 結果出力部300は、演算部100による演算結果を表示部30に出力する。なお、結果出力部300は、演算部100による演算結果を、表示部30以外の出力装置や、記憶装置などに出力してもよい。
 表示部30は、結果出力部300が出力する演算結果を表示する。
 上述した演算部100の具体的な演算手順について、図3を参照して説明する。
 図3は、本実施形態の演算部100の演算手順の一例を示す流れ図である。なお、ここに示す演算手順は、一例であって、演算手順の省略や演算手順の追加が行われてもよい。
 細胞画像取得部101は、細胞画像を取得する(ステップS10)。この細胞画像には、遺伝子、タンパク質、オルガネラなど、大きさが相違する複数の種類の生体組織の画像が含まれている。また、細胞画像には、細胞の形状情報が含まれている。また、細胞画像を時系列の異なる、もしくは、分化等の細胞状態が異なる細胞画像から、動的な挙動を取得する。従って、細胞内の微細な構造から、細胞形状までの複数の大きさの相違するスケールまたは、ある所定時間、もしくは、分化等のある細胞状態での細胞画像と時系列の異なる、もしくは、分化等の細胞状態が異なる細胞画像での次元の相違するスケールを用いて解析することから、マルチスケール解析と称することも可能である。
 特徴量算出部102は、ステップS10において取得された細胞画像に含まれる細胞の画像を、細胞毎に抽出する(ステップS20)。特徴量算出部102は、細胞画像に対して、既知の手法による画像処理を施すことにより、細胞の画像を抽出する。この一例では、特徴量算出部102は、画像の輪郭抽出やパターンマッチングなどを施すことにより、細胞の画像を抽出する。
 次に、特徴量算出部102は、ステップS20において抽出された細胞の画像について、細胞の種類を判定する(ステップS30)。さらに、特徴量算出部102は、ステップS30における判定結果に基づいて、ステップS20において抽出された細胞の画像に含まれる細胞の構成要素を判定する(ステップS40)。ここで、細胞の構成要素には、細胞核、リソソーム、ゴルジ体、ミトコンドリアなどの細胞小器官(オルガネラ)や、オルガネラを構成するタンパク質などが含まれる。なお、ステップS30では細胞の種類を判定しているが、細胞の種類を判定しなくても構わない。この場合には、予め導入する細胞の種類が判定している場合には、その情報を使用しても構わない。勿論、細胞の種類を特定しなくても構わない。
 次に、特徴量算出部102は、ステップS40において判定された細胞の構成要素ごとに、画像の特徴量を算出する(ステップS50)。この特徴量には、画素の輝度値、画像内のある領域の面積、画素の輝度の分散値などが含まれる。また、特徴量には、細胞の構成要素に応じた複数の種類がある。一例として、細胞核の画像の特徴量には、核内総輝度値や、核の面積などが含まれる。細胞質の画像の特徴量には、細胞質内総輝度値や、細胞質の面積などが含まれる。また、細胞全体の画像の特徴量には、細胞内総輝度値や、細胞の面積などが含まれる。また、ミトコンドリアの画像の特徴量には、断片化率が含まれる。なお、特徴量算出部102は、特徴量を、例えば0(ゼロ)から1までの間の値に正規化して算出してもよい。
 また、特徴量算出部102は、細胞画像に対応付けられている細胞に対する実験の条件の情報に基づいて、特徴量を算出してもよい。例えば、細胞について抗体を反応させた場合において撮像された細胞画像の場合には、特徴量算出部102は、抗体を反応させた場合に特有の特徴量を算出してもよい。また、細胞を染色した場合、又は細胞に蛍光タンパクを付与した場合において撮像された細胞画像の場合には、特徴量算出部102は、細胞を染色した場合、又は細胞に蛍光タンパクを付与した場合に特有の特徴量を算出してもよい。
 これらの場合、記憶部200は、実験条件記憶部202を備えていてもよい。この実験条件記憶部202には、細胞画像に対応付けられている細胞に対する実験の条件の情報を、細胞画像毎に記憶される。
 特徴量算出部102は、ステップS50において算出した特徴量を、雑音成分除去部103に供給する。
 雑音成分除去部103は、ステップS50において算出された特徴量のうちから、雑音成分を除去する(ステップS60)。具体的には、雑音成分除去部103は、特徴量の正常範囲又は異常範囲を示す情報を取得する。この特徴量の正常範囲又は異常範囲を示す情報は、細胞画像に撮像されている細胞の特性に基づいて予め定められている。例えば、細胞核の画像の特徴量のうち、核内総輝度値についての正常範囲が、細胞核の画像の特性に基づいて定められている。雑音成分除去部103は、算出された特徴量が、この正常範囲に含まれない場合には、その特徴量を雑音成分として除去する。ここで、雑音成分除去部103は、特徴量を雑音成分として除去する場合には、細胞毎に除去する。具体的には、ある細胞について、複数の特徴量が算出される場合がある。例えば、ある細胞について、細胞内総輝度値、核内総輝度値、及び核の面積が、特徴量としてそれぞれ算出される場合がある。この場合において、ある細胞について、細胞内総輝度値を雑音成分として除去する場合には、雑音成分除去部103は、その細胞の核内総輝度値、及び核の面積についても、除去する。つまり、雑音成分除去部103は、ある細胞について算出された複数の特徴量のうち、少なくとも1つの特徴量が正常範囲に含まれない場合には、この細胞の他の特徴量についても除去する。
 すなわち、雑音成分除去部103は、細胞画像に撮像されている細胞の特性を示す情報に基づいて、相関関係抽出部104に供給される特徴量のうちから雑音成分を細胞画像に撮像されている細胞毎に除去する。このように構成することにより、雑音成分除去部103は、信頼度が相対的に低い特徴量がある場合に、その特徴量を細胞単位で除外することができる。つまり、雑音成分除去部103によれば、特徴量の信頼度を向上させることができる。
 また、雑音成分除去部103は、算出された特徴量が、この正常範囲に含まれる場合には、その特徴量を相関関係抽出部104に供給する。なお、この雑音成分除去部103は、必須の構成要素ではなく、細胞画像の状態や、特徴量の算出の状態によっては、省略可能である。
 相関関係抽出部104は、スパース推定を用いて、特徴量の尤度に基づいて、特徴量算出部102が算出する特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する(ステップS70)。以下、相関関係抽出部104が行う処理について、より具体的に説明する。
 相関関係抽出部104は、ステップS60において雑音成分が除去された後の特徴量を取得する。この特徴量は、ステップS50において、特徴量算出部102により細胞毎に算出されている。特徴量算出部102による、あるタンパク質の特徴量の算出結果について、図4を参照して説明する。
 図4は、本実施形態の特徴量算出部102による特徴量の算出結果の一例を示す模式図である。特徴量算出部102は、タンパク質1について、細胞ごと、かつ時刻ごとに、複数の特徴量を算出する。この一例において、特徴量算出部102は、細胞1から細胞NまでのN個の細胞について、特徴量を算出する。また、この一例において、特徴量算出部102は、時刻1から時刻7までの7つの時刻について、特徴量を算出する。また、この一例において、特徴量算出部102は、特徴量k1から特徴量kKまでの、K種類の特徴量を算出する。つまり、この一例において、特徴量算出部102は、三軸の方向に、特徴量を算出する。ここで、細胞方向の軸を軸Ncと、時間方向の軸を軸Nと、特徴量方向の軸を軸d1と、それぞれ記載する。
 なお、特徴量k1から特徴量kKまでのK種類の特徴量とは、タンパク質1についての特徴量の組み合わせである。タンパク質1以外のタンパク質、又は、タンパク質1以外の細胞内の構成要素については、特徴量の種類や組み合わせが相違する場合がある。
 図5は、本実施形態の細胞毎の特徴量の行列Xの一例を示す図である。ある細胞についての特徴量を、図5に示す、行方向に軸Nを、列方向に軸dをとった行列Xによって示すこともできる。図5では、行列Xの各要素を、細胞集団の平均値によって示しているが、中央値や最頻値といった統計量を使用することもできる。勿論、細胞毎の特徴量の行列Xとしても構わない。
 図6は、本実施形態の特徴量間の相関関係の一例を示す模式図である。相関関係抽出部104は、特徴量算出部102が算出する特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する。
 図7は、本実施形態の特定の相関関係の一例を示す模式図である。ここで、特定の相関関係とは、特徴量間の複数の相関関係のうちから数学的な演算によって選択された相関関係である。特定の相関関係の数は、相関関係抽出部104によって抽出される前の特徴量間の複数の相関関係の数よりも少ない。つまり、相関関係抽出部104は、特徴量間の相関関係の数を疎(スパース)にする。相関関係抽出部104は、特徴量間の相関関係について、スパース推定を用いることにより、特徴量間の相関関係の数を疎にする。この相関関係抽出部104による、スパース推定の一例について説明する。
 相関関係抽出部104がスパース推定に用いるガウシアンモデルにおける尤度を、式(1)に示す。
Figure JPOXMLDOC01-appb-M000001
 この式(1)において、「φ(Λ)」の項は、正則化項である。この正則化項の関数形には、抽出したい相関関係の属性に応じて、様々な形式がある。特にガウシアンモデルを仮定した際に、式(2)のようにL1正則化項を付け加えることで、スパースな成分を持つ精度行列が得られることが知られている。式(2)におけるλは、正則化の強さを表し、これが大きいほど精度行列の成分はスパースになりやすい、という性質を持つ。
Figure JPOXMLDOC01-appb-M000002
 また、例えば、正則化項を式(3)のように設定することでスパースな部分行列を得ることも可能である。
Figure JPOXMLDOC01-appb-M000003
[Graphical Lassoによるスパース推定]
 ここでは、正則化項がGraphical Lassoによる関数形の場合における、スパース推定の一例について説明する。Graphical Lassoとは、L1正則化付のガウシアンモデルから、精度行列を推定するための効率的なアルゴリズムである。例えば、JEROME FRIEDMANとTREVOR HASTIEとROBERT TIBSHIRANIによるBiostatistics (2008), 9, 3 432-441号の“Sparse inverse covariance estimation with the graphical lasso”に記載されている。
 まず、式(2)を採用した場合の式(1)、ガウシアンモデルのL1正則化付尤度を精度行列によって微分する。
Figure JPOXMLDOC01-appb-M000004
 次に、精度行列は正定値行列であるという条件から、対角成分が式(5)のように求まる。
Figure JPOXMLDOC01-appb-M000005
 次に、特定の変数iに着目し、分散共分散行列、精度行列、サンプル共分散行列を式(6)のようにブロック行列に分割することで、式(7)のように式(4)を変形することができる。
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
 式(7)は、一般のLasso回帰の最適化問題である式(8)に帰着することができ、既存のソルバーなどで求めることができる。
Figure JPOXMLDOC01-appb-M000009
 式(9)の条件を満たす式(8)の最適解β*(ベータ・アスタリスク)が求まれば、式(6)及び式(7)、式(10)から導出される式(11)と式(12)を用いることで式(6)のブロック行列の各成分を求めることが出来る。但し、式(10)におけるIとは、単位行列である。
Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000011
Figure JPOXMLDOC01-appb-M000012
 上述の式(5)から式(12)の演算を、行と列とを入れ替えて繰り返し行う。
 以上説明したように画像処理装置10は、相関関係抽出部104がスパース推定を行うことにより、特徴量間の相関関係の数を疎にする。このため、画像処理装置10によれば、特徴量間の相関関係の数を低減させた状態にして解析を行うことができる。つまり、画像処理装置10によれば、特徴量の相関関係の解析の演算量を低減することができる。特徴量間の相関関係の数を尤度を指標として低減させることができるので、特徴量の相関関係の解析の演算量を例えば人が恣意的に低減することによる、解析不良を抑制することができる。また、細胞を含む画像から、特徴量の相関を取得するために、特徴量を取得した。特徴量には、画像から直接導かれる輝度情報など、それ以外に、その画像情報以外の情報も合わせて用いる。例えば、画像の形状から、輝度情報の細胞での場所(核、核膜、細胞質)を推定する。また、例えば、染色された細胞の染色部位(輝度情報がある部位)の場所(核、核膜、細胞質)を推定する。このように、画像情報から直接導き出される情報以外に、画像情報から推定される情報とを用いて、特徴量の相関を取得するために、演算量が膨大になる。したがって、相関関係抽出部104がスパース推定を行うことにより、特徴量間の相関関係の数を疎にすることができるために、演算量が膨大になることを抑制することができる。
 また、例えば細胞内の相関を取得する場合を例に説明すると、細胞内の相関を取得する場合に、例えば、画像では複数の細胞を取得できる場合があり、その複数の細胞において、細胞内の相関を取得することが可能である。この場合に、複数の細胞内での相関を取得すると、単一の細胞の相関を取得する場合に比べて、複数の細胞での相関を取得できるので、相関の取得として例えば算出されるシグナル伝達の経路の精度を高めることができる。精度を高めるために複数の細胞の相関を取得する場合に、その相関を取得するために行う演算量が膨大になる。この場合において、尤度を指標として演算量を低減することができるので、解析不良を抑制することができる。
また、例えば細胞同士の相関を取得する場合を例に説明すると、細胞同士の相関を取得する場合に、例えば、画像では複数の細胞を取得できる場合があり、その複数の細胞に対する、細胞同士の相関を取得することが可能である。この場合に、所定の細胞が複数の細胞と相関している場合があり、その所定細胞以外の細胞もまた複数の細胞と相関している場合がある。また、この場合にそれぞれの細胞同士の細胞の相関を取得することで、相関の取得として例えば算出される細胞同士のシグナル伝達の経路の精度を高めることができる。精度を高めるために複数の細胞の相関を取得する場合に、その相関を取得するために行う演算量が膨大になる。この場合において、尤度を指標として演算量を低減することができるので、解析不良を抑制することができる。
 また、特徴量算出部102より算出される特徴量は、例えば、細胞が細胞外からのシグナル受容した後の、細胞内でのシグナル伝達を相関として求める場合に、その細胞内のシグナル伝達に関与するたんぱく質の種類を、特徴量として抽出しても構わない。すなわち、例えば、細胞内のシグナル伝達に関与する物質の種類でも構わないし、細胞内でシグナルが伝達されることに伴う結果の細胞の形状の変化でも構わない。細胞内のシグナル伝達に関与する物質の特定は、NMRなどで特定しても構わないし、用いる染色液からその相互作用する相手を類推する方法でも構わない。
  [正則化パラメータの決定]
 次に、相関関係抽出部104が行うスパース推定における、正則化パラメータの決定について説明する。スパース推定には、モデルの柔軟性が比較的高いことや、人間やコンピュータが解釈しやすいようにモデルを調整することができるといった利点がある。一方で、スパース推定には、正則化パラメータ依存性があるためモデルが一意には定まらないという課題がある。この課題を解決するための正則化パラメータの決定手順を示す。このパラメータの決定手順には、一例として、クロスバリデーションによるパラメータの決定手順と、生物学的知識を用いたパラメータの決定手順とがある。このうち、クロスバリデーションによるパラメータの決定手順について説明する。
  [クロスバリデーションによるλ推定]
 図8は、本実施形態の相関関係抽出部104によるクロスバリデーションの手順の一例を示す流れ図である。
 相関関係抽出部104は、行列X、正則化パラメータλ、分割数Kを取得する(ステップS100)。相関関係抽出部104は、ステップS100において取得した分割数Kに基づいて、行列Xを分割する(ステップS110)。
 次に、相関関係抽出部104は、正則化パラメータλのループ(ステップS120)と、分割数Kのループ(ステップS130)との2重のループを処理する。分割数Kのループ内において、相関関係抽出部104は、行列Xkと、行列X/kとを用いた尤度Lkを算出する(ステップS140)。正則化パラメータλのループにおいて、相関関係抽出部104は、ある正則化パラメータλにおける尤度Lkの平均尤度Lλを算出する(ステップS150)。この相関関係抽出部104による平均尤度Lλの算出手順の詳細について、図9を参照して説明する。
 図9は、本実施形態の相関関係抽出部104による平均尤度Lλの算出手順の一例を示す模式図である。相関関係抽出部104は、上述した分割数Kのループにおいて、細胞方向Ncに、行列XをK個に分割する。相関関係抽出部104は、K個に分割された行列Xについて、尤度Lkを算出する。
 具体的には、相関関係抽出部104は、図9(k=1)に示す算出枠W1に含まれる要素について、尤度L1を算出する。また、相関関係抽出部104は、ある正則化パラメータλについて、図9(k=2)に示す算出枠W2-1及び算出枠W2-2に含まれる要素について、尤度L2を算出する。また、相関関係抽出部104は、図9(k=K)に示す算出枠WKに含まれる要素について、尤度LKを算出する。つまり、相関関係抽出部104は、ある正則化パラメータλについて、k=1からk=Kまでの尤度Lkをそれぞれ算出する。相関関係抽出部104は、正則化パラメータλ毎にそれぞれ算出した尤度Lkについて、式(13)によって平均尤度Lλを算出する。
Figure JPOXMLDOC01-appb-M000013
 次に、相関関係抽出部104は、平均尤度Lλが最大値Max(Lλ)を示す正則化パラメータλを、算出対象の正則化パラメータλとして算出して(ステップS160)、正則化パラメータλの算出を終了する。この相関関係抽出部104による、正則化パラメータλの算出手順の一例について説明する。
 この一例において、相関関係抽出部104は、正則化パラメータλを0から1まで変化させた場合の、尤度Lλを算出する。具体的には、相関関係抽出部104は、正則化パラメータλを0から1までのある値にして、図9に示した尤度Lkの算出を行う。相関関係抽出部104は、この尤度Lkの平均、すなわち平均尤度Lλを算出して、正則化パラメータλと、平均尤度Lλとの対応関係を生成する。この相関関係抽出部104が生成する正則化パラメータλと、平均尤度Lλとの対応関係を図10に示す。
 図10は、本実施形態の平均尤度Lλと正則化パラメータλとの関係の一例を示すグラフである。この図10に示す一例の場合、正則化パラメータλaにおいて、平均尤度Lλが最大値を示す。この場合、相関関係抽出部104は、正則化パラメータλaを、算出対象の正則化パラメータλとして算出する。
 上述のステップS110において、相関関係抽出部104は、行列Xを分割数KによってK個に分割する際に、細胞方向Ncに分割する。換言すれば、相関関係抽出部104は、細胞画像に撮像されている細胞数に基づいて特徴量の尤度Lを求めることにより、特定の相関関係を抽出する。ここで、相関関係抽出部104は、行列Xを時間方向Nに分割することもできる。しかしながら、相関関係抽出部104が行列Xを時間方向Nに分割するためには、時間方向Nに複数の細胞画像が必要である。つまり、相関関係抽出部104が行列Xを時間方向Nに分割するためには、互いに異なる時刻に撮像された複数の細胞画像が必要である。一方、相関関係抽出部104が行列Xを細胞方向Ncに分割する場合には、互いに異なる時刻に撮像された複数の細胞画像が不要である。つまり、本実施形態の相関関係抽出部104は、互いに異なる時刻に撮像された複数の細胞画像がなくても、例えば、1枚の細胞画像から正則化パラメータλを算出することができる。
[スパース推定結果の生物学的解釈]
 次に、相関関係抽出部104によるスパース推定結果の生物学的解釈について、図11から図13を参照して説明する。生物学的情報に基づいて、相関関係抽出部104によるスパース推定結果に対して、生物学的解釈を加えることができる。なお、この一例において、生物学的情報は、記憶部200に予め記憶されているとして説明するが、これに限られない。生物学的情報は、顕微鏡観察システム1の外部からネットワークや可搬記憶媒体などを介して供給されてもよい。生物学的情報には、細胞内構成要素アノテーション・データベース、特徴量アノテーション・データベースなどが含まれる。細胞内構成要素とは、細胞を構成する要素のことである。細胞を構成する要素には、例えば、タンパク質、遺伝子、化合物などがあげられる。以下、相関関係抽出部104によるスパース推定結果の生物学的解釈の手順の具体例について説明する。
 図11は、本実施形態の相関関係抽出部104による特徴量の相関関係の抽出結果の一例を示す模式図である。この一例では、相関関係抽出部104は、タンパク質Aからタンパク質Fの6種類のタンパク質と、ミトコンドリアとについて、特徴量の相関関係を抽出する。
 この一例の場合、細胞画像には、タンパク質A~タンパク質Fやミトコンドリアを含む細胞が撮像されている。特徴量算出部102は、これらタンパク質A~タンパク質Fやミトコンドリアに対応する種類の特徴量を算出する。すなわち、特徴量算出部102は、複数種類の特徴量のうち、細胞画像に撮像されている細胞に含まれる細胞内の構成要素の種類に対応する種類の特徴量を算出する。
 具体的には、相関関係抽出部104は、タンパク質Aの特徴量と、タンパク質Dの特徴量との間に、相関関係R1、相関関係R2、及び相関関係R3の3種類の相関関係を抽出する。ここで、相関関係R1とは、タンパク質Aの特徴量A3と、タンパク質Dの特徴量D2との相関関係である。相関関係R2とは、タンパク質Aの特徴量A1と、タンパク質Dの特徴量D3との相関関係である。相関関係R3とは、タンパク質Aの特徴量A4と、タンパク質Dの特徴量D1との相関関係である。例えば、特徴量A1とは、タンパク質Aの画像の分散値である。特徴量D3とは、タンパク質Dの画像の輝度値である。
 また、相関関係抽出部104は、タンパク質Aの特徴量と、ミトコンドリアの特徴量との間に、相関関係R4を抽出する。ここで、相関関係R4とは、タンパク質Aの特徴量A2と、ミトコンドリアの特徴量M1との相関関係である。特徴量A2とは、例えば、タンパク質Aの画像の細胞内総輝度値に対する核内総輝度値の割合である。例えば、特徴量M1とは、ミトコンドリアの画像が示す、ミトコンドリアの断片化率である。
 図12は、本実施形態の細胞内構成要素アノテーション・データベースの一例を示す表である。この細胞内構成要素アノテーション・データベースは、細胞内構成要素の種類と、細胞内構成要素の機能とを関連付ける。本実施形態の一例においては、細胞内構成要素アノテーション・データベースは、記憶部200に予め記憶されている。具体的には、細胞内構成要素アノテーション・データベースにおいて、種類「タンパク質A」が、機能「転写因子(促進)」に関連付けられている。また、細胞内構成要素アノテーション・データベースにおいて、種類「タンパク質B」が、機能「キナーゼ」に関連付けられている。
 図13は、本実施形態の特徴量アノテーション・データベースの一例を示す表である。この特徴量アノテーション・データベースは、NW要素と、特徴量と、特徴量の変化方向と、生物学的意味を示す情報とを関連付ける。本実施形態の一例においては、特徴量アノテーション・データベースは、記憶部200に予め記憶されている。具体的には、特徴量アノテーション・データベースにおいて、NW要素「転写因子(促進)」と、特徴量「核内総輝度値/細胞内総輝度値」と、特徴量変化「UP」と、生物学的意味「転写促進」とが互いに関連付けられている。また、特徴量アノテーション・データベースにおいて、NW要素「ミトコンドリア」と、特徴量「断片化率」と、特徴量変化「UP」と、生物学的意味「***促進、酸化ストレス上昇、マイトファジー亢進」とが互いに関連付けられている。なお、この特徴量アノテーション・データベースとは、記憶部200が備える種類記憶部201の具体的な一例である。つまり、種類記憶部201には、細胞画像に撮像されている細胞に含まれる細胞内構成要素の種類と、特徴量の種類とが対応付けられて記憶されている。
 抽出された相関関係R4、つまり、タンパク質Aの画像の細胞内総輝度値に対する核内総輝度値の割合と、ミトコンドリアの断片化率との相関関係が、高相関である場合、次のようにして生物学的解釈を行うことができる。
 すなわち、細胞内構成要素アノテーション・データベースに基づいて、タンパク質Aの機能が「転写因子(促進)」であると判定する。また、特徴量アノテーション・データベースに基づいて、「転写因子(促進)」に関連付けられた特徴量「核内総輝度値/細胞内総輝度値」が特徴量変化「UP」を示す場合、その生物学的意味が「転写促進」であると判定できる。また、特徴量アノテーション・データベースに基づいて、「ミトコンドリア」に関連付けられた特徴量「断片化率」が特徴量変化「UP」を示す場合、その生物学的意味が「***促進、酸化ストレス上昇、マイトファジー亢進」であると判定できる。
 これらの判定結果に基づいて、次のような相関関係R4の生物学的解釈を加えることができる。すなわち、(1)タンパク質Aは、ミトコンドリア***に関係するタンパク質の転写を促進する。(2)タンパク質Aは、マイトファジーを亢進するタンパク質の転写を促進する。
 上述したように、画像処理装置10によれば、細胞の特徴量間の相関関係の抽出結果と、生物学的情報とに基づいて、その相関関係の生物学的解釈に示唆を与えることができる。
 相関関係の取得に用いられた細胞の特徴量から、その特徴量の生物学的情報を作成する。すなわち、相関関係の取得に用いられた細胞の特徴量の生物学的な情報を作成する。これにより、抽出された相関の生物学的解釈を行うことができる。
[スパース推定結果を利用した特徴量ネットワークの特徴の抽出]
 相関関係抽出部104によるスパース推定結果を利用して、特徴量ネットワークの要素を抽出することができる。ここで、特徴量ネットワークとは、特徴量間の相関関係のネットワークを指す。特徴量ネットワークの要素には、ノード、エッジ、サブグラフ(クラスタ)、リンクが含まれる。特徴量ネットワークの特徴には、ハブの有無、クラスタの有無などが含まれる。例えば、あるノードがハブを有するか否かは、偏相関行列の値に基づいて判定することができる。ここで、ハブとは、他の特徴量との相関関係の数が比較的多い特徴量のことである。
 あるノードにハブが存在する場合、そのハブである特徴量、又は、そのハブを含むノードが、生物学的に重要な意味を持つことが考えられる。したがって、ハブの存在の発見は、重要なタンパク質や、重要な特徴量の発見につながることがある。つまり、相関関係抽出部104によるスパース推定結果を利用することにより、重要なタンパク質や、重要な特徴量の発見に寄与することができる。
 したがって、相関関係抽出部104は、スパース推定を用いて、算出される特徴量ネットワークから、その特徴量ネットワークを構成する複数の要素の中から、一つ以上の要素を特定することができる。これにより、相関を取得する際に優先して考慮する要素を抽出することができる。抽出することで、それ以外の相関を取得する際に、考慮に入れることができる。
 もちろん、相関関係抽出部104は、スパース推定を用いて、算出される特徴量ネットワークから、その特徴量ネットワークを構成する複数の要素群の中から、一つ以上の要素群を特定することができる。要素群としては、例えば、タンパク質の二次構造が同一な複数のタンパク質を一つの要素群としても構わない。
[特徴量ネットワーク間の変化検知]
 相関関係抽出部104によるスパース推定結果を利用して、複数の特徴量ネットワーク間の変化を検知することができる。
 図14は、本実施形態の特徴量ネットワークの比較類型の一例を示す図である。特徴量ネットワークは、ミクロからマクロまでの各粒度において、相互に比較可能である。具体的には、関係性の変化に基づいて、エッジ粒度の変化検知を行うことができる。このエッジ粒度の変化検知は、d(d-1)/d個のスコアを有する。また、変数の変化に基づいて、ノード粒度の変化検知を行うことができる。このノード粒度の変化検知は、d個のスコアを有する。EGONET(エゴネット)の変化に基づいて、クラスタ粒度の変化検知を行うことができる。このクラスタ粒度の変化検知は、d個のスコアを有する。ネットワークの変化に基づいて、ネットワーク粒度の変化検知を行うことができる。このネットワーク粒度の変化検知は、1個のスコアを有する。
 ノード粒度の変化検知は、例えば、確率的近傍法によって行われる。この確率的近傍法によるノード粒度の変化検知は、非類似度行列のi番目の要素と、j番目の要素との近傍確率を算出し、この近傍確率をスコア化することにより可能である。また、あるタンパク質のある指標についてのスコアを、タンパク質毎かつ指標毎に並べることにより、スコアの変化をグラフ化することができる。例えば、Tsuyoshi IdeとSpiros PapadimitriouとMichail Vlachosが、Proceedings of the Seventh IEEE International Conference on Data Mining(ICDM)のOct 28-31, 2007, pp523-528で、記載されている。
 クラスタ粒度の変化検知は、EGONETによって行われる。ここで、EGONETとは、ノードとエッジとで構成される特徴量ネットワークにおいて、個々のノード(Ego)に注目し、注目ノードと、注目ノードに関係するノードと、これらのノードが張るエッジの関係を示す図である。EGONETによれば、特徴量ネットワークに含まれる全エッジから、注目ノードについてのエッジが抽出される。このため、EGONETどうしを比較することは、特徴量ネットワークどうしの比較に比べて容易である。注目するノード周りの相関構造を可視化する上で有益である。
 特徴量ネットワーク間の変化検知の変形例として、2つ以上の特徴量ネットワーク間の定量的な比較がある。例えば、ある病気に罹患している人の組織から採取された細胞についての特徴量ネットワークと、健康な人の組織から採取された細胞についての特徴量ネットワークとを比較することができる。この場合、特徴量ネットワークどうしを比較することにより、ある病気に特有の特徴量ネットワークの構造を発見することが可能である。また、本実施形態では相関関係抽出部104がスパース推定を用いることにより、解釈しやすい疎な特徴量ネットワークを導出するため、特徴量ネットワークの比較が、スパース推定を用いない場合に比べて容易である。
 なお、特徴量ネットワーク間の比較において、SVM、ランダムフォレストなどによるネットワーク学習を用いてもよい。また、このネットワーク学習の際には、分類性能を向上させるため、正則化パラメータを調整してもよい。
[特徴量ネットワーク間の比較による同機能タンパク質の同定]
 あるタンパク質P1と、他のあるタンパク質P2とが同機能を有する場合には、タンパク質P1と他のタンパク質Pnとの間のエッジと、タンパク質P2と他のタンパク質Pnとの間のエッジとに差がない場合がある。つまり、タンパク質P1と、タンパク質P2とを同一のタンパク質とした場合、互いの特徴量ネットワークの構造が類似する。この特性を利用することにより、同機能タンパク質の同定を行うことができる。例えば、相関関係抽出部104によるスパース推定の際に、特徴量ネットワークからタンパク質P1だけを除外したものと、特徴量ネットワークからタンパク質P2だけを除外したものとを抽出することにより、同機能タンパク質の同定を行うことができる。
[生物学的知識を用いた正則化パラメータの決定]
 図15は、本実施形態の生物学的知識を用いた正則化パラメータの決定手順の一例を示す図である。この一例では、生物学的知識に基づいた、タンパク質どうしの結合が、予め規定されている。具体的には、生物学的知識に基づいて、あるタンパク質の特徴量と他のタンパク質の特徴量との間において「結合があるべきだ」という結合と、「結合があるはずはない」という結合とが、予め知識データベースとして規定されている。本実施形態においては、この予め規定されている知識データベースが、記憶部200に記憶されていてもよい。
 この知識データベースと、相関関係抽出部104によるスパース推定結果が示す特徴量ネットワークとの距離、すなわち、Fscoreを算出することにより、正則化パラメータλを決定する。このFscoreは、式(14)に示す精度(Precision)と、式(15)に示す再現性(Recall)とによって、式(16)のように示される。Fscoreは正則化パラメータに依存し、推定されたネットワークが知識データベースと最も近いときに、最大値をとり、このときの正則化パラメータを採用する。また、図15に示すように、知識データベースが充分でない場合、すなわち行列の成分が完全にラベル付けされていない場合であっても、正則化パラメータの範囲を狭めることができる。
Figure JPOXMLDOC01-appb-M000014
Figure JPOXMLDOC01-appb-M000015
Figure JPOXMLDOC01-appb-M000016
式(14)及び式(15)に示すTP、FP、及びFNの関係性について、図16に示す。
 図16は、本実施形態の特徴量ネットワークの結合有無についての、知識ベースネットワークと予測ネットワークとの関係性を示す図である。なお、精度(Precision)とは、特徴量ネットワークのある要素について、エッジであるとして予測したもののうち、実際にエッジであるものの割合である。また、再現性(Recall)とは、特徴量ネットワークのある要素について、実際にエッジであるものについて、エッジであると予測されるものの割合である。
 上述したように、相関関係抽出部104は、細胞画像に撮像されている細胞の特性を示す情報に基づいて特徴量の尤度を求めることにより、特定の相関関係を抽出してもよい。
 なお、上述の実施形態により、抽出される相関関係は、適宜、学術文献やデータベースを用いて、検証しても構わない。また、データベースが複数に分割されている場合は、分割されたデータベースからの情報を適宜、選択しても構わない。この場合に、分割されたデータベースは、遺伝子、タンパク質などの種類で分けても構わない。また、複数のデータベースの検証結果を組み合わせて、抽出される相関関係を検証しても構わない。
 なお、本発明の実施形態における画像処理装置10の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、上述した種々の処理を行ってもよい。
 なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
 さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
 以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 1…顕微鏡観察システム、10…画像処理装置、20…顕微鏡装置、101…細胞画像取得部、102…特徴量算出部、103…雑音成分除去部、104…相関関係抽出部

Claims (11)

  1.  細胞が撮像された細胞画像を取得する細胞画像取得部と、
     前記細胞画像取得部が取得する前記細胞画像の複数種類の特徴量を算出する特徴量算出部と、
     前記特徴量の尤度に基づいて、前記特徴量算出部が算出する前記特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する相関関係抽出部と、
     を備える画像処理装置。
  2.  前記相関関係抽出部は、
     前記細胞画像に撮像されている細胞数に基づいて前記特徴量の尤度を求めることにより、前記特定の相関関係を抽出する
     請求項1に記載の画像処理装置。
  3.  前記相関関係抽出部は、
     前記細胞画像に撮像されている細胞の特性を示す情報に基づいて前記特徴量の尤度を求めることにより、前記特定の相関関係を抽出する
     請求項1又は請求項2に記載の画像処理装置。
  4.  前記相関関係抽出部は、
     抽出した相関関係の抽出に使用した特徴量に関して、前記抽出された特徴量の生物学的情報に基づいて、前記抽出される相関関係が示す生物学的解釈を抽出する
     請求項1又は請求項2に記載の画像処理装置。
  5.  前記細胞画像に撮像されている細胞の特性を示す情報に基づいて、前記相関関係抽出部に供給される前記特徴量のうちから雑音成分を前記細胞画像に撮像されている細胞毎に除去する雑音成分除去部
     を更に備える請求項1から請求項4のいずれか一項に記載の画像処理装置。
  6.  前記特徴量算出部は、
     前記細胞画像に撮像されている細胞の構成要素毎及び又は細胞毎に、前記特徴量を算出する
     請求項1から請求項5のいずれか一項に記載の画像処理装置。
  7.  前記細胞画像に撮像されている細胞及び又は細胞に含まれる細胞の構成要素の種類と、前記特徴量の種類とが対応付けられて記憶されている種類記憶部
     を更に備え、
     前記特徴量算出部は、
     複数種類の前記特徴量のうち、前記細胞画像に撮像されている細胞及び、細胞に含まれる細胞の構成要素の種類に対応する種類の前記特徴量を算出する
     請求項1から請求項6のいずれか一項に記載の画像処理装置。
  8.  前記特徴量算出部は、
     前記細胞画像に対応付けられている前記細胞に対する実験の条件の情報に基づいて、前記特徴量を算出する
     請求項1から請求項7のいずれか一項に記載の画像処理装置。
  9.  前記相関関係抽出部は、スパース推定を用いて、前記特徴量の尤度に基づいて、前記特徴量算出部が算出する前記特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する
     請求項1から請求項8のいずれか一項に記載の画像処理装置。
  10.  前記相関関係抽出部は、スパース推定を用いて、前記特徴量算出部が算出する前記特徴量間の相関関係を構成する要素の中から、特定の1つ以上の要素を抽出する、
     請求項1から請求項8のいずれか一項に記載の画像処理装置。
  11.  前記相関関係抽出部は、スパース推定を用いて、前記特徴量の尤度に基づいて、前記特徴量算出部が算出する前記特徴量間の複数の相関関係を比較して、相関関係を構成する要素群から、特定の1つ以上の要素群を抽出する、
     請求項1から請求項8のいずれか一項に記載の画像処理装置。
PCT/JP2015/085853 2015-12-22 2015-12-22 画像処理装置 WO2017109860A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/060,247 US10796130B2 (en) 2015-12-22 2015-12-22 Image processing apparatus
EP15911298.6A EP3395937A4 (en) 2015-12-22 2015-12-22 IMAGE PROCESSING APPARATUS
JP2017557557A JP6756339B2 (ja) 2015-12-22 2015-12-22 画像処理装置、及び画像処理方法
PCT/JP2015/085853 WO2017109860A1 (ja) 2015-12-22 2015-12-22 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/085853 WO2017109860A1 (ja) 2015-12-22 2015-12-22 画像処理装置

Publications (1)

Publication Number Publication Date
WO2017109860A1 true WO2017109860A1 (ja) 2017-06-29

Family

ID=59089711

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/085853 WO2017109860A1 (ja) 2015-12-22 2015-12-22 画像処理装置

Country Status (4)

Country Link
US (1) US10796130B2 (ja)
EP (1) EP3395937A4 (ja)
JP (1) JP6756339B2 (ja)
WO (1) WO2017109860A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019159247A1 (ja) * 2018-02-14 2019-08-22 株式会社ニコン 算出装置、解析プログラム及び解析方法
JP2020035137A (ja) * 2018-08-29 2020-03-05 カシオ計算機株式会社 開閉状態判定装置、方法、プログラム、音声認識装置、及びロボット
WO2022038713A1 (ja) * 2020-08-19 2022-02-24 日本電信電話株式会社 可視化装置、可視化方法および可視化プログラム
WO2024014489A1 (ja) * 2022-07-12 2024-01-18 国立大学法人東京工業大学 解析システム、解析装置、解析プログラム、及び解析方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102122068B1 (ko) * 2018-11-19 2020-06-12 노을 주식회사 이미지 분석 시스템 및 분석 방법
CN112183210A (zh) * 2020-08-28 2021-01-05 江苏康尚生物医疗科技有限公司 一种基于稀疏矩阵的粒子自动聚焦方法、***及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006104201A1 (ja) * 2005-03-29 2006-10-05 Olympus Corporation 細胞画像解析方法、細胞画像解析プログラム、細胞画像解析装置、スクリーニング方法およびスクリーニング装置
WO2013001584A1 (ja) * 2011-06-30 2013-01-03 パナソニック株式会社 類似症例検索装置および類似症例検索方法
JP2013143102A (ja) * 2012-01-12 2013-07-22 Nikon Corp 移動物体検出装置、移動物体検出方法およびプログラム
JP2014085949A (ja) * 2012-10-25 2014-05-12 Dainippon Printing Co Ltd 細胞挙動解析装置、細胞挙動解析方法、及びプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6198839B1 (en) * 1997-09-05 2001-03-06 Tripath Imaging, Inc. Dynamic control and decision making method and apparatus
EP1616286A1 (en) * 2003-04-02 2006-01-18 Amersham Biosciences UK Limited Method of, and computer software for, classification of cells into subpopulations
ATE381071T1 (de) * 2004-04-08 2007-12-15 Petra Perner Verfahren zur akquisition von formen aus hep-2- zellschnitten und zum fallbasierten erkennen von hep-2-zellen
JP4744187B2 (ja) * 2005-05-10 2011-08-10 オリンパス株式会社 細胞観察装置
JP4869843B2 (ja) * 2006-09-06 2012-02-08 オリンパス株式会社 細胞画像処理装置および細胞画像処理方法
JP5365011B2 (ja) * 2008-01-29 2013-12-11 日本電気株式会社 病理診断支援装置、病理診断支援方法、およびプログラム
US8883491B2 (en) * 2008-04-09 2014-11-11 Nexcelom Bioscience Llc Systems and methods for counting cells and biomolecules
US9779213B2 (en) * 2008-07-25 2017-10-03 Fundacao D. Anna Sommer Champalimaud E Dr. Carlos Montez Champalimaud System for evaluating a pathological stage of prostate cancer
ES2651068T3 (es) * 2009-07-17 2018-01-24 Bioaffinity Technologies, Inc. Sistema y procedimiento de análisis de muestras marcadas con 5,10,15,20 tetraquis(4 carboxifenil)porfirina (TCPP)
US9779283B2 (en) * 2011-01-05 2017-10-03 The Board Of Trustees Of The University Of Illinois Automated prostate tissue referencing for cancer detection and diagnosis
US20120269418A1 (en) * 2011-04-22 2012-10-25 Ge Global Research Analyzing the expression of biomarkers in cells with clusters
WO2012176785A1 (ja) 2011-06-20 2012-12-27 株式会社ニコン 画像処理装置および方法、並びにプログラム
JP6006205B2 (ja) * 2011-06-21 2016-10-12 浜松ホトニクス株式会社 光測定装置、光測定方法、及び光測定プログラム
EP2745111B1 (en) * 2011-09-13 2016-06-29 Koninklijke Philips N.V. System and method for the detection of precancer or cancer cells in a biological sample
WO2013109802A1 (en) * 2012-01-19 2013-07-25 H. Lee Moffitt Cancer Center And Research Institute, Inc. Histology recognition to automatically score and quantify cancer grades and individual user digital whole histological imaging device
JP5984559B2 (ja) * 2012-07-31 2016-09-06 オリンパス株式会社 壊死細胞領域検出装置及びその方法、壊死細胞領域検出プログラム
US9488639B2 (en) * 2013-02-25 2016-11-08 Flagship Biosciences, Inc. Cell-based tissue analysis
US20140273075A1 (en) * 2013-03-15 2014-09-18 Eye Marker Systems, Inc. Methods, systems and devices for determining white blood cell counts for radiation exposure
US9536042B2 (en) * 2013-03-15 2017-01-03 International Business Machines Corporation Using RNAi imaging data for gene interaction network construction
WO2014178323A1 (ja) 2013-05-01 2014-11-06 株式会社国際電気通信基礎技術研究所 脳活動解析装置、脳活動解析方法およびバイオマーカー装置
US9842391B2 (en) * 2013-05-14 2017-12-12 Pathxl Limited Method and apparatus for processing an image of a tissue sample
JP6003963B2 (ja) * 2014-11-07 2016-10-05 カシオ計算機株式会社 診断装置並びに当該診断装置における画像処理方法及びそのプログラム
WO2016090148A1 (en) * 2014-12-03 2016-06-09 IsoPlexis Corporation Analysis and screening of cell secretion profiles
EP3239287A4 (en) * 2014-12-26 2018-08-15 The University of Tokyo Analysis device, analysis method, analysis program, cell manufacturing method and cells

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006104201A1 (ja) * 2005-03-29 2006-10-05 Olympus Corporation 細胞画像解析方法、細胞画像解析プログラム、細胞画像解析装置、スクリーニング方法およびスクリーニング装置
WO2013001584A1 (ja) * 2011-06-30 2013-01-03 パナソニック株式会社 類似症例検索装置および類似症例検索方法
JP2013143102A (ja) * 2012-01-12 2013-07-22 Nikon Corp 移動物体検出装置、移動物体検出方法およびプログラム
JP2014085949A (ja) * 2012-10-25 2014-05-12 Dainippon Printing Co Ltd 細胞挙動解析装置、細胞挙動解析方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3395937A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019159247A1 (ja) * 2018-02-14 2019-08-22 株式会社ニコン 算出装置、解析プログラム及び解析方法
JP2020035137A (ja) * 2018-08-29 2020-03-05 カシオ計算機株式会社 開閉状態判定装置、方法、プログラム、音声認識装置、及びロボット
JP7196467B2 (ja) 2018-08-29 2022-12-27 カシオ計算機株式会社 開閉状態判定装置、開閉状態判定方法及びプログラム
WO2022038713A1 (ja) * 2020-08-19 2022-02-24 日本電信電話株式会社 可視化装置、可視化方法および可視化プログラム
JP7464132B2 (ja) 2020-08-19 2024-04-09 日本電信電話株式会社 可視化装置、可視化方法および可視化プログラム
WO2024014489A1 (ja) * 2022-07-12 2024-01-18 国立大学法人東京工業大学 解析システム、解析装置、解析プログラム、及び解析方法

Also Published As

Publication number Publication date
EP3395937A4 (en) 2019-08-21
JP6756339B2 (ja) 2020-09-16
US10796130B2 (en) 2020-10-06
US20180349675A1 (en) 2018-12-06
JPWO2017109860A1 (ja) 2018-08-23
EP3395937A1 (en) 2018-10-31

Similar Documents

Publication Publication Date Title
Nirschl et al. A deep-learning classifier identifies patients with clinical heart failure using whole-slide images of H&E tissue
WO2017109860A1 (ja) 画像処理装置
US8831327B2 (en) Systems and methods for tissue classification using attributes of a biomarker enhanced tissue network (BETN)
Li et al. Parasitologist-level classification of apicomplexan parasites and host cell with deep cycle transfer learning (DCTL)
Ishaq et al. Deep fish: deep learning–based classification of zebrafish deformation for high-throughput screening
WO2016017533A1 (ja) 識別装置および識別方法
US11321836B2 (en) Image-processing device, image-processing method, and image-processing program for setting cell analysis area based on captured image
Puniyani et al. SPEX2: automated concise extraction of spatial gene expression patterns from Fly embryo ISH images
Mace et al. Extraction and comparison of gene expression patterns from 2D RNA in situ hybridization images
Borovec et al. Supervised and unsupervised segmentation using superpixels, model estimation, and graph cut
Chen et al. ICA order selection based on consistency: application to genotype data
JP2022105045A (ja) 解析装置
Woloshuk et al. In situ classification of cell types in human kidney tissue using 3D nuclear staining
Peterson et al. Bayesian modeling of multiple structural connectivity networks during the progression of Alzheimer's disease
Knyshov et al. Pretrained convolutional neural networks perform well in a challenging test case: identification of plant bugs (Hemiptera: Miridae) using a small number of training images
Kim et al. Self-supervision advances morphological profiling by unlocking powerful image representations
JPWO2018087861A1 (ja) 解析装置、解析方法、及びプログラム
US20200372652A1 (en) Calculation device, calculation program, and calculation method
Abdulbaki Alshirbaji et al. Robustness of convolutional neural networks for surgical tool classification in laparoscopic videos from multiple sources and of multiple types: A systematic evaluation
JPWO2018066039A1 (ja) 解析装置、解析方法、及びプログラム
Wang et al. Signal subgraph estimation via vertex screening
JP6999118B2 (ja) 画像処理装置
Flores et al. Automatic analysis of breast thermograms by convolutional neural networks
Gehrung et al. Triage-driven diagnosis for early detection of esophageal cancer using deep learning
US20240135541A1 (en) Method of extracting gene candidate, method of utilizing gene candidate, and computer-readable medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15911298

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017557557

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE