WO2014196097A1 - 画像処理システム、画像処理装置、プログラム、記憶媒体及び画像処理方法 - Google Patents

画像処理システム、画像処理装置、プログラム、記憶媒体及び画像処理方法 Download PDF

Info

Publication number
WO2014196097A1
WO2014196097A1 PCT/JP2013/081361 JP2013081361W WO2014196097A1 WO 2014196097 A1 WO2014196097 A1 WO 2014196097A1 JP 2013081361 W JP2013081361 W JP 2013081361W WO 2014196097 A1 WO2014196097 A1 WO 2014196097A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
cell
region
captured
image processing
Prior art date
Application number
PCT/JP2013/081361
Other languages
English (en)
French (fr)
Inventor
英人 織田
尾崎 良太
加藤 典司
熊澤 幸夫
Original Assignee
富士ゼロックス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士ゼロックス株式会社 filed Critical 富士ゼロックス株式会社
Priority to CN201380075661.4A priority Critical patent/CN105122037A/zh
Publication of WO2014196097A1 publication Critical patent/WO2014196097A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Definitions

  • the present invention relates to an image processing system, an image processing apparatus, a program, a storage medium, and an image processing method.
  • fetal nucleated red blood cells NRBCs, hereinafter referred to as target cells
  • target cells fetal nucleated red blood cells
  • An object of the present invention is to enable a user to determine whether or not an object in a cell candidate region is a target cell by only referring to an image of the cell candidate region in a captured image.
  • the invention according to claim 1 for solving the above-described problem is that the target cell in each of the imaging unit that images the sample including the target cell at a plurality of focal lengths, and the captured image captured by the imaging unit.
  • An acquisition unit that acquires an image of a cell candidate region that is a candidate for the reflected region, a display unit that displays a plurality of the images acquired by the acquisition unit, and whether or not the target cell is captured in the cell candidate region
  • An image processing system including a means for receiving an input of a user's determination result relating to the above.
  • the image processing system according to claim 2 is the image processing system according to claim 1, wherein the display unit aligns the plurality of images according to a focal distance when each captured image is captured. It is characterized by displaying a list in order.
  • the image processing system according to claim 3 is the image processing system according to claim 1, wherein the display unit focuses each of the plurality of images when each captured image is captured. It displays in order in the display order according to distance.
  • the image processing system according to claim 4 is the image processing system according to any one of claims 1 to 3, wherein the display unit displays the plurality of images as the cell candidates in any captured image. It is characterized by being displayed together with an image of a peripheral area including the area.
  • the image processing system according to claim 5 is the image processing system according to any one of claims 1 to 4, wherein the display unit focuses the plurality of images when each captured image is captured. It is characterized by being displayed together with information indicating the distance.
  • the imaging unit captures a region in which the target cell is captured in each of the captured images obtained by imaging the sample including the target cell at each of a plurality of focal lengths.
  • an image processing apparatus including means for receiving an input of a result.
  • the invention according to claim 7 for solving the above-described problem is that the imaging unit captures a region including the target cell in each of the captured images obtained by imaging the sample including the target cell at each of a plurality of focal lengths.
  • the imaging unit captures a region in which the target cell is captured in each of the captured images obtained by imaging the sample including the target cell at each of a plurality of focal lengths.
  • Acquisition means for acquiring an image of a candidate cell candidate area, display means for displaying a plurality of the images acquired by the acquisition means, and determination result of a user regarding whether or not the target cell is shown in the cell candidate area A computer-readable storage medium storing a program for causing a computer to function as an input receiving means.
  • the invention according to claim 9 for solving the above-described problem is to capture a sample including a target cell at each of a plurality of focal lengths, and in each of the captured images, the region where the target cell is reflected. Obtaining an image of a candidate cell candidate region, displaying the plurality of obtained images, In the image processing method, an input of a user's determination result regarding whether or not the target cell is shown in the cell candidate region is received.
  • the user can determine whether or not the object in the cell candidate region is the target cell only by referring to the image of the cell candidate region in the captured image. Can be aimed at.
  • the object in the cell candidate region is a target cell, as compared with the case where the present configuration is not provided.
  • FIG. 1 is a system configuration diagram of an image processing system 1 according to the present embodiment.
  • the image processing system 1 includes an optical microscope 2, an image processing device 4, and a display device 6.
  • the image processing device 4 is connected to each of the optical microscope 2 and the display device 6 so that data communication is possible.
  • the optical microscope 2 images a sample on a slide glass placed on a sample stage with a CCD camera via an optical system such as an objective lens.
  • a sample obtained by applying maternal blood on a slide glass and performing May-Giemsa staining is used as the sample.
  • fetal nucleated red blood cells in maternal blood are stained blue-violet.
  • nucleated red blood cells are referred to as target cells.
  • the image processing device 4 is, for example, a personal computer, and acquires a captured image captured by the optical microscope 2.
  • the captured image includes images of various cells contained in the maternal blood.
  • the nuclei of target cells are stained slightly darker than the nuclei of other cells by Mei Giemsa staining.
  • the image processing device 4 identifies a cell candidate region that is a candidate for a region in which the target cell is shown, and displays a list of images of each identified cell candidate region on the display device 6.
  • the display device 6 displays a list of images of each cell candidate region specified by the image processing device 4.
  • FIG. 2A is a diagram illustrating an example of a screen displayed on the display device 6. As shown in the figure, a list of images of the specified cell candidate regions is displayed on the screen.
  • a visual result input button 11 is provided at the upper right of the image of each cell candidate region, and the user clicks the visual result input button 11 related to the cell candidate region for which it is determined whether or not the target cell is shown, and the determination is made. Enter the result.
  • each focal distance is expressed as a distance in the downward direction from the autofocus position of the focal position.
  • the symbol “+” indicates that the focal position is below the autofocus position, and the symbol “ ⁇ ” indicates that the focal position is above the autofocus position.
  • the size of the nucleus image of the nucleated red blood cell that is the target cell changes according to the focal length.
  • this labor is omitted. That is, in this image processing system 1, the optical microscope 2 is provided with a focusing mechanism. Moreover, the optical microscope 2 images a sample at each of a plurality of focal lengths.
  • buttons 7a and 7b for selecting an image display form are provided on the screen shown in FIG. 2A.
  • the button 7b is selected, as shown in FIG. 2B, a list of images at each focal length is displayed for each cell candidate region.
  • the numerical value below the image indicates the focal length. Therefore, the user can determine whether or not the object in the cell candidate region is a target cell by referring to the image of the cell candidate region in each captured image without performing the above operation. Yes.
  • FIG. 4A is a diagram for explaining the display mode (1).
  • the display mode (1) as shown in FIG. 4A, a list of images at each focal length is displayed for the cell candidate region selected by the user. Again, the numerical value below the image indicates the focal length. Therefore, by selecting the button 10a, the user can determine whether or not the object in the cell candidate region is a target cell by referring to the image of the cell candidate region in each captured image. .
  • FIG. 4B is a diagram for explaining the display mode (2).
  • FIG. 4B an image of a peripheral region including the cell candidate region selected by the user is displayed.
  • FIG. 4C is a diagram for explaining the display mode (3).
  • the display mode (3) as shown in FIG. 4C, an image at each focal length and an image of the peripheral region are displayed for the cell candidate region selected by the user.
  • the user can switch the display mode of the detailed display among the display modes (1) to (3) by switching the button to be selected from the buttons 10a, 10b, and 10c.
  • FIG. 5 shows how the display mode is switched.
  • FIG. 6 is a functional block diagram showing a functional group realized by the image processing system 1.
  • an imaging unit 12 a sample image acquisition unit 14, a sample image storage unit 16, a cell candidate region determination unit 18, a region candidate database 20 (hereinafter referred to as a region candidate DB 20), a candidate region image acquisition unit 22,
  • a visual confirmation information generating unit 24, a visual confirmation information storage unit 26, and a visual confirmation information display unit 28 are realized.
  • the imaging unit 12 is realized by the optical microscope 2.
  • Functions other than the imaging unit 12 are realized by the image processing device 4.
  • Functions other than the imaging unit 12 are image processing that is a computer including a control unit such as a microprocessor, a storage unit such as a memory, and an input / output unit that transmits and receives data to and from an external device such as an operation reception unit that receives a user operation.
  • the apparatus 4 is realized by reading and executing a program stored in a computer-readable information storage medium (for example, an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, a flash memory, etc.).
  • the program may be supplied to the image processing apparatus 4 as a computer via a data communication network such as the Internet.
  • the imaging unit 12 images the sample on the slide glass surface at each of a plurality of predetermined focal lengths, and outputs a plurality of captured images (hereinafter referred to as sample images) to the sample image acquisition unit 14. .
  • the specimen image is image data, and the focal distance when it is imaged is included as header information.
  • the sample image acquisition unit 14 acquires data of each of the plurality of sample images from the imaging unit 12 and stores each acquired sample image in the sample image storage unit 16.
  • the focal length is expressed as a downward distance from the autofocus position of the focal position.
  • region determination part 18 determines the cell candidate area
  • a significant pixel is a pixel whose pixel value (RGB value) is within a predetermined range.
  • region determination part 18 determines a cell candidate area
  • FIG. 7 shows an example of the pixel block 30, the nucleus candidate region 32, and the cell candidate region 34. In FIG. 7, a cell candidate region 34 including the upper left nucleus candidate region 32 is shown.
  • the cell candidate region determination unit 18 registers the determined cell candidate region 34 in the region candidate DB 20. That is, the cell candidate region determination unit 18 stores the determined record of the cell candidate region 34 in the region candidate DB 20.
  • the record includes the area ID of the cell candidate area 34.
  • the record includes coordinate data indicating the cell candidate region 34.
  • the record also includes a numerical value (hereinafter referred to as a score) indicating the probability that the target cell is shown in the cell candidate area 34.
  • the record includes a value of a visual flag (here, “0”) indicating a user's determination result regarding whether or not the target cell is shown in the cell candidate area 34.
  • the cell candidate region determination unit 18 cuts out an image in the cell candidate region 34 from the reference sample image, and outputs an output value when the image feature amount of the cut out image is input to a discriminator learned in advance. Obtained as the score of region 34.
  • the image feature amount for example, a HOG (Histograms of Oriented Gradients) feature amount is raised. The greater the score value, the higher the probability that the target cell is shown in the cell candidate region 34.
  • FIG. 8 is a diagram showing the stored contents of the area candidate DB 20.
  • the region candidate DB 20 includes a region ID field, a coordinate data field, a score field, and a visual result field.
  • the region ID field stores the region ID of the cell candidate region 34.
  • coordinate data indicating the cell candidate region 34 is stored in association with the region ID of the cell candidate region 34.
  • the coordinate data includes the position coordinates of the representative point (for example, the center or the upper left vertex) of the cell candidate region 34 and the size (width W and height H) of the cell candidate region 34.
  • the coordinate data may be data expressed in pixels or data expressed in millimeters.
  • the score field the score of the cell candidate region 34 is stored in association with the region ID of the cell candidate region 34.
  • the value of the visual flag is stored in association with the area ID of the cell candidate area 34.
  • the value “2” indicates that the user has determined that the target cell is shown in the cell candidate region 34
  • the value “1” indicates that it is unclear whether the target cell is shown in the cell candidate region 34.
  • the value “0” indicates that the user has determined that the user has not yet viewed the cell candidate area 34 or that the target cell is not shown in the cell candidate area 34.
  • a user comment regarding the cell candidate region 34 may be stored in the visual result field.
  • the cell candidate region determination unit 18 may register all the determined cell candidate regions 34 in the region candidate DB 20, or if the target cell is reflected in the determined cell candidate region 34, the above-described classifier identifies the target cell. Only the cell candidate region 34 may be registered in the region candidate DB 20.
  • the cell candidate region 34 identified as having the target cell reflected is, for example, a cell candidate region 34 having a score equal to or higher than a threshold, or a score “1” to “N” (“N” is “ 200 ”) is the second largest cell candidate region 34.
  • each cell candidate region 34 registered in the region candidate DB 20 will be referred to as a cell candidate region X, and the description will be continued.
  • the candidate area image acquisition unit 22 acquires an image of the cell candidate area X in each of the plurality of sample images captured by the imaging unit 12 as a candidate area image. Specifically, the candidate area image acquisition unit 22 cuts out an image of the cell candidate area X as a candidate area image from each sample image stored in the sample image storage unit 16.
  • the candidate area image is image data, and the focal distance when the specimen image including the candidate area image is captured is included as header information.
  • the visual confirmation information generation unit 24 generates visual confirmation information based on each of the plurality of candidate area images acquired by the candidate area image acquisition unit 22. Specifically, the visual confirmation information generation unit 24 generates information including a plurality of candidate region images acquired by the candidate region image acquisition unit 22 as visual confirmation information, and uses the generated visual confirmation information as a cell candidate region. The information is stored in the visual confirmation information storage unit 26 in association with the region ID X.
  • the visual confirmation information display unit 28 displays an image of the cell candidate region X in the reference sample image on the display device 6. Specifically, the visual confirmation information display unit 28 displays an image of the cell candidate region X in the reference sample image on the display device 6 when the button 7a is selected (see FIG. 2A).
  • the visual confirmation information display unit 28 displays a plurality of candidate region images acquired by the candidate region image acquisition unit 22 on the display device 6 based on the visual confirmation information. For example, when the button 7b is selected, the visual confirmation information display unit 28 displays a plurality of candidate region images included in the visual confirmation information on the display device 6 (see FIG. 2B). Further, for example, the visual confirmation information display unit 28 displays a plurality of candidate region images included in the visual confirmation information on the display device 6 when the button 10a is selected and the cell candidate region X is selected by the user. (See FIG. 4A).
  • the visual confirmation information display unit 28 displays a plurality of candidate region images included in the visual confirmation information in the reference specimen image. The image is displayed on the display device 6 together with the peripheral region image including the cell candidate region X (see FIG. 4C).
  • the information display part 28 for visual confirmation displays each candidate area
  • the visual confirmation information display unit 28 displays each candidate area image in association with the focal length included in the candidate area image (see FIGS. 2B, 4A, and 4C).
  • the visual confirmation information display unit 28 displays each candidate region image in a list in an order of alignment (for example, ascending or descending order of focal length) according to the focal length when each specimen image is captured (FIG. 2B).
  • the visual confirmation information display unit 28 displays each candidate area image in order in a display order (for example, ascending or descending order of the focal distance) according to the focal length included in each candidate area image. May be. The state where each candidate area image is displayed one by one is shown. Arrows indicate transitions of displayed candidate area images.
  • the visual confirmation information display unit 28 receives an input of a user's judgment result regarding whether or not the target cell is shown in the cell candidate region X.
  • the visual confirmation information display unit 28 determines whether or not the target cell is shown in the cell candidate region X when the visual result input button 11 (see FIGS. 2A and 2B) related to the cell candidate region X is clicked. The input of the user's judgment result about the is accepted.
  • the visual confirmation information display unit 28 stores information indicating the received determination result of the user in the visual result field in association with the region ID of the cell candidate region X.
  • the visual confirmation information display unit 28 is stored in the visual result field in association with the region ID of the cell candidate region X.
  • the value of the visual flag is updated to “2”, and when the input of the determination result that it is unclear whether the target cell is shown in the cell candidate region X is received, the value of the visual flag is updated to “1”. .
  • the visual confirmation information display unit 28 displays, on the display device 6, an image of the cell candidate region 34 when a sample is imaged at each focal length. The Therefore, the user can determine whether or not the object in the cell candidate region 34 is a target cell by referring to each image. In addition, since the images are displayed in the order according to the focal length, it becomes easy to grasp the change in the size of the core portion at a glance, and the above-described determination is facilitated.
  • FIG. 10 is a flowchart illustrating an example of processing executed by the candidate area image acquisition unit 22, the visual confirmation information generation unit 24, and the visual confirmation information display unit 28 in the image processing device 4.
  • the image processing apparatus 4 reads a plurality of sample images stored in the sample image storage unit 16.
  • the image processing apparatus 4 reads the coordinate data of each of the plurality of cell candidate regions registered in the region candidate DB 20.
  • the image processing device 4 initializes the visually confirmed region list stored in the storage unit (S102). Then, the image processing apparatus 4 executes steps S103 to S106 with each cell candidate region registered in the region candidate DB 20 as a cell candidate region (i).
  • the image processing apparatus 4 acquires the image of the cell candidate region (i) in each specimen image as the candidate region image by the candidate region image acquisition unit 22.
  • the image processing apparatus 4 generates visual confirmation information including a plurality of acquired candidate area images from the visual confirmation information generation unit 24 and stores the information in the visual confirmation information storage unit 26.
  • the image processing device 4 reads the visual confirmation information stored in the visual confirmation information storage unit 26 by the visual confirmation information display unit 28.
  • Each of the plurality of candidate area images included in the visual confirmation information is displayed on the display device 6 (S104).
  • the image processing apparatus 4 displays a list of each candidate area image in an arrangement order corresponding to the focal length included in each candidate area image (see FIG. 4A).
  • the image processing apparatus 4 displays each candidate area image in order in a display order corresponding to the focal length included in each candidate area image (see FIG. 9).
  • the image processing apparatus 4 displays each candidate area image together with an image of a peripheral area including the cell candidate area (i) in the reference specimen image (see FIG. 4C).
  • the image processing apparatus 4 receives an input of a determination result of the user regarding whether or not the target cell is shown in the cell candidate region (i) by the visual confirmation information display unit 28. Further, based on the received input, it is determined whether or not the user has determined that the target cell is shown in the cell candidate region (i) (S105).
  • the value of the visual flag stored in the visual result field in association with the area ID of the cell candidate area (i) is set to “ Update to 2 ”. Further, the cell candidate area (i) is registered in the visually confirmed area list (S106).
  • the image processing apparatus 4 sets another cell candidate region as the cell candidate region (i) and the steps after S103. Execute.
  • the image processing apparatus 4 outputs a visually confirmed region list.
  • nucleated red blood cells are target cells
  • cells other than nucleated red blood cells may be target cells. That is, the present invention can also be applied when cells other than nucleated red blood cells are target cells.
  • FIG. 11 is a diagram for explaining the display mode (4). As shown in the figure, in the display mode (4), each image of the peripheral area at each focal length is displayed in order.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

 細胞候補領域内の物体が標的細胞であるか否かを、撮像画像における細胞候補領域の像の参照のみでユーザが判断できるように図る。 撮像部(12)は、標的細胞を含む試料を複数の焦点距離のそれぞれで撮像し、候補領域画像取得部(22)は、撮像された撮像画像それぞれにおける、標的細胞が写っている領域の候補たる細胞候補領域の画像を取得し、目視確認用情報表示部(28)は、候補領域画像取得部(22)により取得された複数の前記画像を表示する。また、目視確認用情報表示部(28)は、細胞候補領域に標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける。

Description

画像処理システム、画像処理装置、プログラム、記憶媒体及び画像処理方法

 本発明は、画像処理システム、画像処理装置、プログラム、記憶媒体及び画像処理方法に関する。

 出生前の胎児の診断を行う場合に、母体血中に極微量に含まれる胎児由来の有核赤血球(NRBCs、以下標的細胞)を検出し、利用することが行われている。母体血中に存在するNRBCsの数は極めて少ないため、NRBCsを目視により検出するのは負担が大きい。そこで、下記の特許文献1に記載されているように、NRBCsの色、形状、位置関係、面積比等の条件に合致する細胞を対象画像から探索することにより、NRBCsを機械的に検出する技術が提案されている。

特許第4346923号公報

 本発明の目的は、細胞候補領域内の物体が標的細胞であるか否かを、撮像画像における細胞候補領域の像の参照のみでユーザが判断できるように図ることである。

 上記課題を解決するための請求項1に記載の発明は、標的細胞を含む試料を複数の焦点距離のそれぞれで撮像する撮像手段と、前記撮像手段が撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得する取得手段と、前記取得手段により取得された複数の前記画像を表示する表示手段と、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段と、を含む画像処理システムである。

 また、請求項2に記載の画像処理システムは、請求項1に記載の画像処理システムにおいて、前記表示手段が、前記複数の画像を、各撮像画像が撮像されたときの焦点距離に応じた整列順で一覧表示すること、を特徴とする。

 また、請求項3に記載の画像処理システムは、請求項1に記載の画像処理システムにおいて、前記表示手段が、前記複数の画像の一つ一つを、各撮像画像が撮像されたときの焦点距離に応じた表示順序で順番に表示すること、を特徴とする。

 また、請求項4に記載の画像処理システムは、求項1乃至3のいずれかに記載の画像処理システムにおいて、前記表示手段が、前記複数の画像を、いずれかの撮像画像における、前記細胞候補領域を含む周辺領域の画像とともに、表示すること、を特徴とする。

 また、請求項5に記載の画像処理システムは、求項1乃至4のいずれかに記載の画像処理システムにおいて、前記表示手段が、前記複数の画像を、各撮像画像が撮像されたときの焦点距離を示す情報とともに表示すること、を特徴とする。

 また、上記課題を解決するための請求項6に記載の発明は、撮像手段が標的細胞を含む試料を複数の焦点距離のそれぞれで撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得する取得手段と、前記取得手段により取得された複数の前記画像を表示する表示手段と、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段と、を含む画像処理装置である。

 また、上記課題を解決するための請求項7に記載の発明は、撮像手段が標的細胞を含む試料を複数の焦点距離のそれぞれで撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得する取得手段、前記取得手段により取得された複数の前記画像を表示する表示手段、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段、としてコンピュータを機能させるためのプログラムである。

 また、上記課題を解決するための請求項8に記載の発明は、撮像手段が標的細胞を含む試料を複数の焦点距離のそれぞれで撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得する取得手段、前記取得手段により取得された複数の前記画像を表示する表示手段、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段としてコンピュータを機能させるプログラムを格納したことを特徴とするコンピュータが読取可能な記憶媒体である。

 また、上記課題を解決するための請求項9に記載の発明は、標的細胞を含む試料を複数の焦点距離のそれぞれで撮像し、撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得し、取得した複数の前記画像を表示し、

 前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付けることを特徴とする画像処理方法である。

 請求項1、6、7、8及び9の発明によれば、細胞候補領域内の物体が標的細胞であるか否かを、撮像画像における細胞候補領域の像の参照のみでユーザが判断できるように図ることができる。

 請求項2~5の発明によれば、本構成を有しない場合と比較して、細胞候補領域内の物体が標的細胞であるか否かをより判断し易くできる。

本実施形態に係る画像処理システムのシステム構成図を示す図である。 表示装置に表示される画面を示す図である。 表示装置に表示される画面を示す図である。 各種細胞の各焦点距離における像の例を示す図である。 表示態様(1)を説明するための図である。 表示態様(2)を説明するための図である。 表示態様(3)を説明するための図である。 表示態様が切り替わる様子を示す図である。 画像処理システムで実現される機能群を示す機能ブロック図である。 画素塊、核候補領域、及び細胞候補領域の一例を示す図である。 領域候補データベースの記憶内容の一例を示す図である。 各候補領域画像一つ一つが順番に表示される様子を示す図である。 画像処理装置で実行される処理の一例を示すフロー図である。 詳細な表示の表示態様(4)を説明するための図である。

 以下、本発明の実施形態の例について図面に基づき詳細に説明する。

 図1は、本実施形態に係る画像処理システム1のシステム構成図を示す。図1に示すように、画像処理システム1は、光学顕微鏡2、画像処理装置4、表示装置6を含む。画像処理装置4は、光学顕微鏡2と表示装置6の各々とデータ通信可能に接続されている。

 光学顕微鏡2は、試料台に配置されたスライドグラス上の試料を、対物レンズ等の光学系を介してCCDカメラで撮像する。本実施形態では、試料には、母体血をスライドグラスに塗布し、メイ・ギムザ染色を施したものを用いる。これにより、母体血中の胎児由来有核赤血球が青紫色に染色される。以下、有核赤血球を標的細胞と称する。

 画像処理装置4は、例えばパーソナルコンピュータであり、光学顕微鏡2で撮像された撮像画像を取得する。撮像画像は、母体血中に含まれる各種細胞の画像を含む。標的細胞(有核赤血球)の核は、メイ・ギムザ染色により他の細胞の核よりわずかに濃く染色される。

 また、画像処理装置4は、標的細胞が写っている領域の候補となる細胞候補領域を特定し、特定した細胞候補領域それぞれの画像の一覧を表示装置6に表示する。

 表示装置6は、画像処理装置4により特定された細胞候補領域それぞれの画像の一覧を表示する。図2Aは、表示装置6に表示される画面の一例を示す図である。同図に示すように、画面には、特定された細胞候補領域の画像の一覧が表示される。

 ユーザは、出生前診断にあたり、画面に表示される各画像を参照する。各細胞候補領域の画像の右上には目視結果入力ボタン11が設けられており、ユーザは、標的細胞が写っているか否かを判断した細胞候補領域に係る目視結果入力ボタン11をクリックし、判断結果を入力する。

 ところで、画像を参照するだけでは、標的細胞の有無の判断がつかない場合がある。そこで、画像を参照するだけでは判断がつかない場合、焦点距離を変えながら、画像に写っている細胞の核部分の大きさの変化を光学顕微鏡2で観察する作業を行うことが考えられる。標的細胞以外の細胞(リンパ球、サイズの大きな白血球、ゴミが付着した赤血球など)の核は平坦であるため、焦点距離によらず核部分の像の大きさはほぼ一定となるが、標的細胞たる有核赤血球の核は平坦でないため、焦点距離に応じて核部分の像の大きさが変わるからである。図3に、各種細胞の各焦点距離における像の例を示した。各像の下に記載の数値は、焦点距離を表している。ここでは、焦点距離を、焦点位置のオートフォーカス位置からの下方向の距離として表している。符号「+」は、焦点位置がオートフォーカス位置より下にあることを示し、符号「-」は、焦点位置がオートフォーカス位置より上にあることを示す。図3に示すように、焦点距離に応じて標的細胞たる有核赤血球の核の像の大きさが変化している。

 しかし、核部分の像の大きさの変化を光学顕微鏡2で観察する作業を行うのは手間である。

 この点、この画像処理システム1では、この手間の省略が図られている。すなわち、この画像処理システム1では、光学顕微鏡2に焦準機構が備えられている。また、光学顕微鏡2が、複数の焦点距離のそれぞれで試料を撮像するようになっている。

 それだけでなく、図2Aに示す画面に、画像の表示形態を選択するためのボタン7a、7bが設けられる。そして、ボタン7bが選択されているとき、図2Bに示すように、一つ一つの細胞候補領域につき、各焦点距離での画像が一覧表示されるようになっている。画像の下の数値は、焦点距離を示す。よって、以上の作業を行わずとも、ユーザが、細胞候補領域内の物体が標的細胞であるか否かを、各撮像画像における細胞候補領域の像を参照することで、判断できるようになっている。

 また、図2Aに示す画面において、ユーザがクリックして選択した細胞候補領域に関し詳細な表示が行われるようになっている。ここでは、詳細な表示の表示態様を選択するためのボタン10a、10b、10cが設けられている。そして、ボタン10aが選択されているとき、表示態様(1)で詳細な表示が行われる。図4Aは、表示態様(1)を説明するための図である。表示態様(1)では、図4Aに示されるように、ユーザが選択した細胞候補領域につき、各焦点距離での画像が一覧表示される。ここでも、画像の下の数値は、焦点距離を示す。よって、ボタン10aを選択することによっても、ユーザが、各撮像画像における細胞候補領域の像を参照することで細胞候補領域内の物体が標的細胞であるか否かを判断できるようになっている。

 なお、ボタン10bが選択されているとき、表示態様(2)で詳細な表示が行われる。図4Bは、表示態様(2)を説明するための図である。表示態様(2)では、図4Bに示されるように、ユーザが選択した細胞候補領域を含む周辺領域の画像が表示される。また、ボタン10cが選択されているとき、表示態様(3)で詳細な表示が行われる。図4Cは、表示態様(3)を説明するための図である。表示態様(3)では、図4Cに示されるように、ユーザが選択した細胞候補領域につき、各焦点距離での画像と、周辺領域の画像と、が表示される。ユーザは、ボタン10a、10b、10cのうちで選択するボタンを切り替えることで、詳細な表示の表示態様を、表示態様(1)~(3)のうちで切り替えることができる。図5に、表示態様が切り替わる様子を示した。

 以下、撮像画像における細胞候補領域の像を参照することで細胞候補領域内の物体が標的細胞であるか否かをユーザが判断できるようにするための技術について説明する。

 図6は、画像処理システム1で実現される機能群を示す機能ブロック図である。画像処理システム1では、撮像部12、検体画像取得部14、検体画像記憶部16、細胞候補領域決定部18、領域候補データベース20(以下、領域候補DB20と称する)、候補領域画像取得部22、目視確認用情報生成部24、目視確認用情報記憶部26、及び目視確認用情報表示部28が実現される。撮像部12は、光学顕微鏡2により実現される。

 また、撮像部12以外の機能は、画像処理装置4により実現される。撮像部12以外の機能は、マイクロプロセッサ等の制御手段、メモリ等の記憶手段、ユーザの操作を受け付ける操作受付手段等の外部デバイスとデータを送受信する入出力手段等を備えたコンピュータである画像処理装置4が、コンピュータ読み取り可能な情報記憶媒体(例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等)に格納されるプログラムを読み込み実行することで実現される。なお、プログラムは、インターネット等のデータ通信網を介してコンピュータたる画像処理装置4に供給されてもよい。

 以下、各機能について説明する。撮像部12は、スライドグラス面上の試料を予め定められた複数の焦点距離のそれぞれで撮像し、撮像した複数の撮像画像(以下、検体画像と表記する)を検体画像取得部14に出力する。検体画像は、画像データであり、それが撮像されたときの焦点距離がヘッダー情報として含まれる。

 検体画像取得部14は、上記複数の検体画像それぞれのデータを撮像部12から取得し、取得した検体画像それぞれを、検体画像記憶部16に保存する。焦点距離は、焦点位置のオートフォーカス位置からの下方向の距離として表される。

 また、細胞候補領域決定部18は、上述した細胞候補領域を決定する。具体的に、細胞候補領域決定部18は、上記複数の検体画像のうちの1つを基準検体画像として検体画像記憶部16から読み出し、基準検体画像のうちで、標的細胞の核に対応する核候補領域を抽出する。より詳しくは、細胞候補領域決定部18は、基準検体画像のうちで、有意な画素の画素塊を抽出し、各画素塊の外接矩形領域を核候補領域として抽出する。ここで、有意な画素とは、画素値(RGB値)が予め定めた範囲内にある画素のことである。そして、細胞候補領域決定部18は、核候補領域ごとに、その核候補領域に基づいて細胞候補領域を決定する。例えば、細胞候補領域決定部18は、核候補領域ごとに、その核候補領域を含む所与のサイズの矩形領域を細胞候補領域として決定する。図7に、画素塊30、核候補領域32、及び細胞候補領域34の例を示した。図7では、左上の核候補領域32を含む細胞候補領域34が示されている。

 また、細胞候補領域決定部18は、決定した細胞候補領域34を領域候補DB20に登録する。すなわち、細胞候補領域決定部18は、決定した細胞候補領域34のレコードを領域候補DB20に格納する。レコードには、細胞候補領域34の領域IDが含まれる。また、レコードには、細胞候補領域34を示す座標データが含まれる。また、レコードには、細胞候補領域34に標的細胞が写っている確度を示す数値(以下、スコアと表記する)が含まれる。また、レコードには、細胞候補領域34に標的細胞が写っているか否かに関するユーザの判断結果を示す目視フラグの値(ここでは「0」)が含まれる。ここで、細胞候補領域決定部18は、基準検体画像から細胞候補領域34内の画像を切り出し、切り出した画像の画像特徴量を予め学習された識別器に入力したときの出力値を、細胞候補領域34のスコアとして得る。画像特徴量の例としては、例えば、HOG(Histograms of Oriented Gradients)特徴量が上げられる。スコアの値が大きいほど、細胞候補領域34に標的細胞が写っている確度が高くなる。

 図8は、領域候補DB20の記憶内容を示す図である。同図に示すように、領域候補DB20は、領域IDフィールド、座標データフィールド、スコアフィールド、及び目視結果フィールドを含む。領域IDフィールドには、細胞候補領域34の領域IDが格納される。座標データフィールドには、細胞候補領域34を示す座標データが、その細胞候補領域34の領域IDに関連づけて格納される。座標データは、細胞候補領域34の代表点(例えば、中心又は左上頂点)の位置座標と、細胞候補領域34のサイズ(幅W及び高さH)と、を含む。座標データは、ピクセル表記されたデータであってもよいし、ミリメートル表記されたデータであってもよい。

 また、スコアフィールドには、細胞候補領域34のスコアが、その細胞候補領域34の領域IDに関連づけて格納される。また、目視結果フィールドには、目視フラグの値が、その細胞候補領域34の領域IDに関連づけて格納される。値「2」は、細胞候補領域34に標的細胞が写っているとユーザが判断したことを示し、値「1」は、細胞候補領域34に標的細胞が写っているかどうかが不明確であるとユーザが判断したことを示し、値「0」は、細胞候補領域34をユーザがまだ目視していないか又は細胞候補領域34に標的細胞が写っていないとユーザが判断したことを示す。目視フラグだけでなく細胞候補領域34に関するユーザのコメントが、目視結果フィールドに格納されてもよい。

 なお、細胞候補領域決定部18は、決定した細胞候補領域34全部を領域候補DB20に登録してもよいし、決定した細胞候補領域34のうち標的細胞が写っていると上記識別器により識別された細胞候補領域34のみを領域候補DB20に登録してもよい。ここで、標的細胞が写っていると識別された細胞候補領域34とは、例えば、スコアが閾値以上である細胞候補領域34や、スコアが「1」~「N」(「N」は例えば「200」)番目に大きい細胞候補領域34のことである。

 以下、領域候補DB20に登録されている細胞候補領域34それぞれを、細胞候補領域Xと称して、説明を続ける。

 候補領域画像取得部22は、撮像部12が撮像した複数の検体画像それぞれにおける、細胞候補領域Xの画像を候補領域画像として取得する。具体的に、候補領域画像取得部22は、検体画像記憶部16に記憶される検体画像それぞれから、細胞候補領域Xの画像を候補領域画像として切り出す。候補領域画像は、画像データであり、それを含む検体画像が撮像されたときの焦点距離がヘッダー情報として含まれる。

 目視確認用情報生成部24は、候補領域画像取得部22が取得した複数の候補領域画像それぞれに基づいて、目視確認用情報を生成する。具体的に、目視確認用情報生成部24は、候補領域画像取得部22が取得した複数の候補領域画像を含む情報を目視確認用情報として生成し、生成した目視確認用情報を、細胞候補領域Xの領域IDに関連づけて目視確認用情報記憶部26に記憶する。

 目視確認用情報表示部28は、基準検体画像における細胞候補領域Xの画像を表示装置6に表示する。具体的に、目視確認用情報表示部28は、ボタン7aが選択されているとき、基準検体画像における細胞候補領域Xの画像を表示装置6に表示する(図2A参照)。

 また、目視確認用情報表示部28は、目視確認用情報に基づいて、候補領域画像取得部22により取得された複数の候補領域画像を表示装置6に表示する。例えば、目視確認用情報表示部28は、ボタン7bが選択されているとき、目視確認用情報に含まれる複数の候補領域画像を表示装置6に表示する(図2B参照)。また、例えば、目視確認用情報表示部28は、ボタン10aが選択され且つ細胞候補領域Xがユーザにより選択されているとき、目視確認用情報に含まれる複数の候補領域画像を表示装置6に表示する(図4A参照)。また、例えば、目視確認用情報表示部28は、ボタン10cが選択され且つ細胞候補領域Xがユーザにより選択されているとき、目視確認用情報に含まれる複数の候補領域画像を、基準検体画像における、細胞候補領域Xを含む周辺領域の画像とともに、表示装置6に表示する(図4C参照)。

 ここで、目視確認用情報表示部28は、各候補領域画像を、各検体画像が撮像されたときの焦点距離を示す情報とともに、表示する。具体的に、目視確認用情報表示部28は、各候補領域画像を、その候補領域画像に含まれる焦点距離に関連づけて表示する(図2B、図4A、及び図4C参照)。また、目視確認用情報表示部28は、各候補領域画像を、各検体画像が撮像されたときの焦点距離に応じた整列順(例えば、焦点距離の昇順又は降順)で一覧表示する(図2B、図4A、及び図4C参照)。なお、目視確認用情報表示部28は、各候補領域画像一つ一つを、各候補領域画像に含まれる焦点距離に応じた表示順序(例えば、焦点距離の昇順又は降順)で順番に表示してもよい。各候補領域画像一つ一つが順番に表示される様子を示した。矢印は、表示される候補領域画像の遷移を示している。

 また、目視確認用情報表示部28は、細胞候補領域Xに標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける。ここでは、目視確認用情報表示部28は、細胞候補領域Xに係る目視結果入力ボタン11(図2A及び図2B参照)がクリックされた場合に、細胞候補領域Xに標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける。

 また、目視確認用情報表示部28は、受け付けたユーザの判断結果を示す情報を、細胞候補領域Xの領域IDに関連づけて目視結果フィールドに格納する。ここでは、目視確認用情報表示部28は、細胞候補領域Xに標的細胞が写っているとの判断結果の入力を受け付けた場合、細胞候補領域Xの領域IDに関連づけて目視結果フィールドに格納される目視フラグの値を「2」に更新し、細胞候補領域Xに標的細胞が写っているか不明確であるとの判断結果の入力を受け付けた場合、目視フラグの値を「1」に更新する。

 そして、領域候補DB20の記憶内容を基に、標的細胞の抽出が行われることになる。

 このように、この画像処理装置4では、目視確認用情報表示部28により、複数の焦点距離それぞれにつき、その焦点距離で試料を撮像したときの細胞候補領域34の像が表示装置6に表示される。よって、ユーザは、各像を参照することで、細胞候補領域34内の物体が標的細胞であるか否かを判断できる。また、各像が、焦点距離に応じた順序で表示されるので、核部分のサイズの変化が一見して把握し易くなり、上述の判断をし易くなる。

 図10は、画像処理装置4において、候補領域画像取得部22、目視確認用情報生成部24、及び目視確認用情報表示部28により実行される処理の一例を示すフロー図である。S101で画像処理装置4は、検体画像記憶部16に記憶される複数の検体画像を読み出す。また、S101で画像処理装置4は、領域候補DB20に登録される複数の細胞候補領域それぞれの座標データを読み出す。

 そして、画像処理装置4は、記憶手段に記憶される目視確認済領域リストを初期化する(S102)。そして、画像処理装置4は、領域候補DB20に登録される細胞候補領域一つ一つを細胞候補領域(i)として、S103~S106のステップを実行する。

 すなわち、S103で画像処理装置4は、候補領域画像取得部22により、各検体画像における細胞候補領域(i)の画像を、候補領域画像として取得する。また、S103で画像処理装置4は、目視確認用情報生成部24より、取得した複数の候補領域画像を含む目視確認用情報を生成し、目視確認用情報記憶部26に保存する。

 そして、例えば細胞候補領域(i)がユーザに選択された場合に、画像処理装置4は、目視確認用情報表示部28により、目視確認用情報記憶部26に記憶される目視確認用情報を読み出し、目視確認用情報に含まれる複数の候補領域画像それぞれを表示装置6に表示する(S104)。例えば、S104で画像処理装置4は、各候補領域画像を、各候補領域画像に含まれる焦点距離に応じた整列順で一覧表示する(図4A参照)。また、例えば、S104で画像処理装置4は、各候補領域画像の一つ一つを、各候補領域画像に含まれる焦点距離に応じた表示順序で順番に表示する(図9参照)。また、例えば、S104で画像処理装置4は、各候補領域画像を、基準検体画像における、細胞候補領域(i)を含む周辺領域の画像とともに表示する(図4C参照)。

 そして、画像処理装置4は、目視確認用情報表示部28により、細胞候補領域(i)に標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける。また、受け付けた入力に基づいて、細胞候補領域(i)に標的細胞が写っているとユーザが判断したか否かを判定する(S105)。

 細胞候補領域(i)に標的細胞が写っているとユーザが判断した場合(S105のY)、細胞候補領域(i)の領域IDに関連づけて目視結果フィールドに格納される目視フラグの値を「2」に更新する。また、細胞候補領域(i)を目視確認済領域リストに登録する(S106)。

 一方、細胞候補領域(i)に標的細胞が写っていないとユーザが判断した場合(S105のN)、画像処理装置4は、他の細胞候補領域を細胞候補領域(i)としてS103以降のステップを実行する。

 最後に、S107で画像処理装置4は、目視確認済領域リストを出力する。

 なお、本発明の実施形態は、上記実施形態だけに限らない。

 例えば、以上では、有核赤血球が標的細胞である場合について述べたが、有核赤血球以外の細胞が標的細胞であってもよい。すなわち、本発明は、有核赤血球以外の細胞が標的細胞である場合にも適用可能である。

 また、例えば、画像処理装置4は、ボタン10bが選択されているとき表示態様(2)で詳細な表示を行うのではなく(図4B参照)、表示態様(4)で詳細な表示を行ってもよい。図11は、表示態様(4)を説明するための図である。同図に示すように、表示態様(4)では、各焦点距離での周辺領域の画像一つ一つが順番に表示される。

 1 画像処理システム、2 光学顕微鏡、4 画像処理装置、6 表示装置、7a,7b,10a,10b,10c ボタン、11 目視結果入力ボタン、12 撮像部、14

 検体画像取得部、16 検体画像記憶部、18 細胞候補領域決定部、20 領域候補DB、22 候補領域画像取得部、24 目視確認用情報生成部、26 目視確認用情報記憶部、28 目視確認用情報表示部、30 画素塊、32 核候補領域、34 細胞候補領域。

Claims (9)


  1.  標的細胞を含む試料を複数の焦点距離のそれぞれで撮像する撮像手段と、

     前記撮像手段が撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得する取得手段と、

     前記取得手段により取得された複数の前記画像を表示する表示手段と、

     前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段と、

     を含む画像処理システム。

  2.  前記表示手段は、

     前記複数の画像を、各撮像画像が撮像されたときの焦点距離に応じた整列順で一覧表示すること、

     を特徴とする請求項1に記載の画像処理システム。

  3.  前記表示手段は、

     前記複数の画像の一つ一つを、各撮像画像が撮像されたときの焦点距離に応じた表示順序で順番に表示すること、

     を特徴とする請求項1に記載の画像処理システム。

  4.  前記表示手段は、

     前記複数の画像を、いずれかの撮像画像における、前記細胞候補領域を含む周辺領域の画像とともに、表示すること、

     を特徴とする請求項1乃至3のいずれかに記載の画像処理システム。

  5.  前記表示手段は、

     前記複数の画像を、各撮像画像が撮像されたときの焦点距離を示す情報とともに表示すること、

     を特徴とする請求項1乃至4のいずれかに記載の画像処理システム。

  6.  撮像手段が標的細胞を含む試料を複数の焦点距離のそれぞれで撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得する取得手段と、

     前記取得手段により取得された複数の前記画像を表示する表示手段と、

     前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段と、

     を含む画像処理装置。

  7.  撮像手段が標的細胞を含む試料を複数の焦点距離のそれぞれで撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得する取得手段、

     前記取得手段により取得された複数の前記画像を表示する表示手段、

     前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段、

     としてコンピュータを機能させるためのプログラム。

  8.  撮像手段が標的細胞を含む試料を複数の焦点距離のそれぞれで撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得する取得手段、

     前記取得手段により取得された複数の前記画像を表示する表示手段、

     前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段

     としてコンピュータを機能させるプログラムを格納したことを特徴とするコンピュータが読取可能な記憶媒体。

  9.  標的細胞を含む試料を複数の焦点距離のそれぞれで撮像し、

     撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得し、

     取得した複数の前記画像を表示し、

     前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける ことを特徴とする画像処理方法。
PCT/JP2013/081361 2013-06-07 2013-11-21 画像処理システム、画像処理装置、プログラム、記憶媒体及び画像処理方法 WO2014196097A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201380075661.4A CN105122037A (zh) 2013-06-07 2013-11-21 图像处理***、图像处理设备、程序、存储介质和图像处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013121331A JP2014238344A (ja) 2013-06-07 2013-06-07 画像処理システム、画像処理装置及びプログラム
JP2013-121331 2013-06-07

Publications (1)

Publication Number Publication Date
WO2014196097A1 true WO2014196097A1 (ja) 2014-12-11

Family

ID=52007764

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/081361 WO2014196097A1 (ja) 2013-06-07 2013-11-21 画像処理システム、画像処理装置、プログラム、記憶媒体及び画像処理方法

Country Status (3)

Country Link
JP (1) JP2014238344A (ja)
CN (1) CN105122037A (ja)
WO (1) WO2014196097A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039441A1 (ja) * 2019-08-23 2021-03-04 ライトタッチテクノロジー株式会社 生体組織の識別方法、生体組織識別装置、および生体組織識別プログラム
WO2021135393A1 (zh) * 2019-12-31 2021-07-08 深圳迈瑞生物医疗电子股份有限公司 一种图像分析装置及其成像方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11300766B2 (en) * 2016-06-13 2022-04-12 Sony Corporation Apparatus, information processing apparatus, program, and information processing method
CN116088158A (zh) * 2018-07-13 2023-05-09 深圳迈瑞生物医疗电子股份有限公司 一种细胞图像处理***、方法、自动读片装置与存储介质
CN111698423A (zh) * 2020-06-18 2020-09-22 福建捷联电子有限公司 一种具有多种焦距照片的展示方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004507743A (ja) * 2000-08-25 2004-03-11 アムニス コーポレイション 時間遅延積分粒子分析装置の代替検出器構成および動作モード
JP2004150895A (ja) * 2002-10-29 2004-05-27 Natl Inst Of Radiological Sciences 標本画像データ処理方法及び標本検査システム
JP4346923B2 (ja) 2003-02-21 2009-10-21 晴夫 高林 標的細胞自動探索システム
JP2012073994A (ja) * 2010-09-03 2012-04-12 Sony Corp 画像処理装置および方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004507743A (ja) * 2000-08-25 2004-03-11 アムニス コーポレイション 時間遅延積分粒子分析装置の代替検出器構成および動作モード
JP2004150895A (ja) * 2002-10-29 2004-05-27 Natl Inst Of Radiological Sciences 標本画像データ処理方法及び標本検査システム
JP4346923B2 (ja) 2003-02-21 2009-10-21 晴夫 高林 標的細胞自動探索システム
JP2012073994A (ja) * 2010-09-03 2012-04-12 Sony Corp 画像処理装置および方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039441A1 (ja) * 2019-08-23 2021-03-04 ライトタッチテクノロジー株式会社 生体組織の識別方法、生体組織識別装置、および生体組織識別プログラム
WO2021135393A1 (zh) * 2019-12-31 2021-07-08 深圳迈瑞生物医疗电子股份有限公司 一种图像分析装置及其成像方法

Also Published As

Publication number Publication date
JP2014238344A (ja) 2014-12-18
CN105122037A (zh) 2015-12-02

Similar Documents

Publication Publication Date Title
JP4558047B2 (ja) 顕微鏡システム、画像生成方法、及びプログラム
US9934571B2 (en) Image processing device, program, image processing method, computer-readable medium, and image processing system
US9704017B2 (en) Image processing device, program, image processing method, computer-readable medium, and image processing system
JP6194791B2 (ja) 画像処理装置及びプログラム
US10345218B2 (en) Automated slide assessments and tracking in digital microscopy
WO2014196097A1 (ja) 画像処理システム、画像処理装置、プログラム、記憶媒体及び画像処理方法
WO2014192184A1 (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
AU2009251162B2 (en) Method for classifying slides using scatter plot distributions
JP2009014939A (ja) 顕微鏡システム、そのvs画像生成方法、プログラム
JP2016517515A (ja) 細胞診標本を観察および解析するためのシステムおよび方法
JP2009122115A (ja) 細胞画像解析装置
CN109001902A (zh) 基于图像融合的显微镜聚焦方法
JP4938428B2 (ja) 標本画像作成方法及び装置
JP2007516428A (ja) 分散プロット分布を用いてスライドの染色品質を決定するシステム
CN107076980A (zh) 用于大视场显微扫描中嵌入图像的***和方法
JP2005227097A (ja) 細胞画像解析装置
JP2015194700A (ja) 合焦判定装置、合焦判定方法、及び撮像装置
US20200074628A1 (en) Image processing apparatus, imaging system, image processing method and computer readable recoding medium
JP5530126B2 (ja) 三次元細胞画像解析システム及びそれに用いる三次元細胞画像解析装置
US20140210980A1 (en) Image acquisition apparatus and image acquisition method
JP6156137B2 (ja) 画像処理装置及びプログラム
JP2014157158A (ja) 細胞観察方法、三次元細胞画像解析システム及びそれに用いる三次元細胞画像解析装置
JP5648366B2 (ja) 顕微鏡制御装置及び領域判定方法
WO2021166089A1 (ja) 評価支援装置、評価支援システム、評価支援方法およびプログラム
US20130215146A1 (en) Image-drawing-data generation apparatus, method for generating image drawing data, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13886197

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2013886197

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE