JP2017134115A - Microscope device, and image display program - Google Patents

Microscope device, and image display program Download PDF

Info

Publication number
JP2017134115A
JP2017134115A JP2016011573A JP2016011573A JP2017134115A JP 2017134115 A JP2017134115 A JP 2017134115A JP 2016011573 A JP2016011573 A JP 2016011573A JP 2016011573 A JP2016011573 A JP 2016011573A JP 2017134115 A JP2017134115 A JP 2017134115A
Authority
JP
Japan
Prior art keywords
image
microscope apparatus
display
sample
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016011573A
Other languages
Japanese (ja)
Inventor
卓 齋木
Suguru Saiki
卓 齋木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2016011573A priority Critical patent/JP2017134115A/en
Publication of JP2017134115A publication Critical patent/JP2017134115A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide users of microscope devices with information on a three-dimensional shape of a sample at an early stage.SOLUTION: A microscope device 1 comprises: an image acquisition unit 2; an image synthesis unit 3; and a display control unit 4. The image acquisition unit 2 is configured to acquire a two-dimensional image on a sample 106 in each of a plurality of different states where a relative position of an objective lens with respect to the sample 106 is different in an optical axis direction of the objective lens. The image synthesis unit 3 is configured to create a synthesis image on the basis of two or more two-dimensional images already acquired by the image acquisition unit 2 before the image acquisition unit 2 ends a series of processing of acquiring the two-dimensional image of the sample 106 in each of the plurality of states. The display control unit 4 is configured to causes a display device to display the synthesis image created by the image synthesis unit 3 before the image acquisition unit 2 ends the series of the processing.SELECTED DRAWING: Figure 4

Description

本発明は、顕微鏡装置、及び画像表示プログラムに関する。   The present invention relates to a microscope apparatus and an image display program.

共焦点顕微鏡は、従来から、サンプルの表面形状を非接触で測定する3次元形状測定装置として利用されている。例えば、特許文献1には、複数の共焦点画像からサンプル表面の三次元形状を示す3D画像を生成し表示する共焦点顕微鏡が記載されている。複数の共焦点画像は、顕微鏡の利用者により指定された、サンプルに対する対物レンズの相対位置(以降、z位置と記す)の範囲(以降、z範囲)内で取得される。   The confocal microscope has been conventionally used as a three-dimensional shape measuring apparatus for measuring the surface shape of a sample in a non-contact manner. For example, Patent Document 1 describes a confocal microscope that generates and displays a 3D image indicating a three-dimensional shape of a sample surface from a plurality of confocal images. The plurality of confocal images are acquired within a range (hereinafter referred to as z range) of a relative position (hereinafter referred to as z position) of the objective lens with respect to the sample designated by the user of the microscope.

特開2010−266461号公報JP 2010-266461 A

特許文献1に記載の共焦点顕微鏡では、指定されたz範囲と予め決められた移動ピッチから決定される全てのz位置で共焦点画像を取得した後に、3D画像が表示される。このため、利用者は、全てのz位置で共焦点画像が取得されるまで、サンプルの三次元形状に関する情報を得ることができず、三次元形状を把握することができない。
以上のような実情を踏まえ、本発明は、顕微鏡装置の利用者にサンプルの三次元形状に関する情報を早期に提供することを課題とする。
In the confocal microscope described in Patent Literature 1, a 3D image is displayed after acquiring confocal images at all z positions determined from a designated z range and a predetermined movement pitch. For this reason, the user cannot obtain information regarding the three-dimensional shape of the sample until the confocal images are acquired at all the z positions, and cannot grasp the three-dimensional shape.
In light of the above circumstances, an object of the present invention is to provide information regarding the three-dimensional shape of a sample to a user of a microscope apparatus at an early stage.

本発明の一態様は、サンプルに対する対物レンズの相対位置が前記対物レンズの光軸方向に異なる複数の状態の各々で、前記サンプルの二次元画像を取得する画像取得部と、前記複数の状態の各々で前記サンプルの二次元画像を取得する一連の処理を前記画像取得部が終了する前に、前記画像取得部が既に取得した2枚以上の二次元画像に基づいて、合成画像を生成する画像合成部と、前記一連の処理を前記画像取得部が終了する前に、前記画像合成部が生成した前記合成画像を表示装置に表示させる表示制御部と、を備える顕微鏡装置を提供する。   One aspect of the present invention is an image acquisition unit that acquires a two-dimensional image of the sample in each of a plurality of states in which the relative position of the objective lens with respect to the sample is different in the optical axis direction of the objective lens; An image for generating a composite image based on two or more two-dimensional images already acquired by the image acquisition unit before the image acquisition unit completes a series of processes for acquiring the two-dimensional images of the samples. A microscope apparatus is provided that includes a combining unit and a display control unit that displays the combined image generated by the image combining unit on a display device before the image acquisition unit completes the series of processes.

本発明の別の態様は、サンプルに対する顕微鏡装置の対物レンズの相対位置が前記対物レンズの光軸方向に異なる複数の状態の各々で前記サンプルの二次元画像を取得する一連の処理を前記顕微鏡装置が終了する前に、前記顕微鏡装置が既に取得した2枚以上の二次元画像に基づいて、前記サンプルの三次元形状を表す合成画像を生成し、前記一連の処理を前記顕微鏡装置が終了する前に、生成した前記合成画像を表示装置に表示させる処理をコンピュータに実行させる画像表示プログラムを提供する。   According to another aspect of the present invention, a series of processes for acquiring a two-dimensional image of the sample in each of a plurality of states in which the relative position of the objective lens of the microscope apparatus with respect to the sample is different in the optical axis direction of the objective lens is performed. Before the microscope apparatus ends, the composite image representing the three-dimensional shape of the sample is generated based on the two or more two-dimensional images already acquired by the microscope apparatus, and the series of processes is completed before the microscope apparatus ends. In addition, an image display program for causing a computer to execute processing for displaying the generated composite image on a display device is provided.

本発明によれば、顕微鏡装置の利用者にサンプルの三次元形状に関する情報を早期に提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the information regarding the three-dimensional shape of a sample can be provided to the user of a microscope apparatus at an early stage.

顕微鏡装置のハードウェア構成図である。It is a hardware block diagram of a microscope apparatus. サンプルの一例を示した図である。It is the figure which showed an example of the sample. 制御装置のハードウェア構成図である。It is a hardware block diagram of a control apparatus. 実施例1に係る顕微鏡装置の機能的構成の一例を示す図である。1 is a diagram illustrating an example of a functional configuration of a microscope apparatus according to Embodiment 1. FIG. 実施例1に係る画像表示処理を示すフローチャートである。3 is a flowchart illustrating image display processing according to the first embodiment. 表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display apparatus. 表示装置に表示される画面の別の例を示す図である。It is a figure which shows another example of the screen displayed on a display apparatus. 実施例1に係る画像合成処理を示すフローチャートである。3 is a flowchart illustrating image composition processing according to the first embodiment. 微小領域を説明するための図である。It is a figure for demonstrating a micro area | region. 信頼度データを説明するための図である。It is a figure for demonstrating reliability data. IZカーブを算出しない画像合成処理の例を示すフローチャートである。It is a flowchart which shows the example of the image composition process which does not calculate an IZ curve. 三次元表示の変化を説明するための図である。It is a figure for demonstrating the change of a three-dimensional display. 実施例2に係る顕微鏡装置の機能的構成の一例を示す図である。6 is a diagram illustrating an example of a functional configuration of a microscope apparatus according to Embodiment 2. FIG. 実施例2に係る画像表示処理を示すフローチャートである。10 is a flowchart illustrating image display processing according to the second embodiment. 実施例2に係る画像合成処理を示すフローチャートである。10 is a flowchart illustrating image composition processing according to the second embodiment. 実施例3に係る画像取得処理を示すフローチャートである。10 is a flowchart illustrating image acquisition processing according to the third embodiment. 実施例3に係る画像表示処理を示すフローチャートである。12 is a flowchart illustrating image display processing according to the third embodiment. 視野を構成するフィールドを説明するための図である。It is a figure for demonstrating the field which comprises a visual field. 実施例4に係る画像表示処理を示すフローチャートである。10 is a flowchart illustrating image display processing according to a fourth embodiment. 断面表示機能について説明するための図である。It is a figure for demonstrating a cross-section display function.

図1は、本発明の一実施形態に係る顕微鏡装置1のハードウェア構成図である。顕微鏡装置1は、サンプルの三次元形状を測定可能な三次元形状測定装置である。顕微鏡装置1は、図1に示すように、共焦点顕微鏡本体100、制御装置120、表示装置130、及び入力装置140を備えている。サンプルは、例えば、半導体基板などである。図2は、サンプルの一例を示した図であり、以降では、図2に示すサンプル106を観察する場合を例に説明する。   FIG. 1 is a hardware configuration diagram of a microscope apparatus 1 according to an embodiment of the present invention. The microscope apparatus 1 is a three-dimensional shape measuring apparatus that can measure the three-dimensional shape of a sample. As shown in FIG. 1, the microscope apparatus 1 includes a confocal microscope main body 100, a control device 120, a display device 130, and an input device 140. The sample is, for example, a semiconductor substrate. FIG. 2 is a diagram illustrating an example of a sample. Hereinafter, a case where the sample 106 illustrated in FIG. 2 is observed will be described as an example.

共焦点顕微鏡本体100は、レーザ光源101、偏光ビームスプリッタ(以降、PBSと記す)102、二次元走査部103、1/4λ板104、対物レンズ105、結像レンズ107、ピンホール板108、光検出器109、AD変換器110、レボルバ111、X−Yステージ114、白色光源115、結像レンズ116、及び、カメラ117を備えている。   The confocal microscope main body 100 includes a laser light source 101, a polarizing beam splitter (hereinafter referred to as PBS) 102, a two-dimensional scanning unit 103, a 1 / 4λ plate 104, an objective lens 105, an imaging lens 107, a pinhole plate 108, light A detector 109, an AD converter 110, a revolver 111, an XY stage 114, a white light source 115, an imaging lens 116, and a camera 117 are provided.

レボルバ111は、対物レンズを切り替える手段であるとともに、光路上に配置された対物レンズ105とサンプル106との間の相対距離を変更する手段でもある。顕微鏡装置1では、レボルバ111は、サンプル106を対物レンズ105の光軸方向に走査する走査手段であり、二次元走査部103は、サンプル106を光軸と直交する方向に走査する走査手段である。また、X−Yステージ114は、サンプル106を対物レンズ105に対して対物レンズ105の光軸と直交する方向に移動させる手段である。   The revolver 111 is a means for switching the objective lens and a means for changing the relative distance between the objective lens 105 and the sample 106 arranged on the optical path. In the microscope apparatus 1, the revolver 111 is a scanning unit that scans the sample 106 in the optical axis direction of the objective lens 105, and the two-dimensional scanning unit 103 is a scanning unit that scans the sample 106 in a direction orthogonal to the optical axis. . The XY stage 114 is means for moving the sample 106 with respect to the objective lens 105 in a direction perpendicular to the optical axis of the objective lens 105.

レーザ光源101から出射したレーザ光は、PBS102を透過した後、二次元走査部103に入射する。二次元走査部103は、例えば、ガルバノミラーであり、レゾナントスキャナである。二次元走査部103で偏向されたレーザ光は、1/4λ板104で直線偏光から円偏光に変換された後に、レボルバ111に装着されている対物レンズ105を経由してサンプル106へ照射される。   Laser light emitted from the laser light source 101 passes through the PBS 102 and then enters the two-dimensional scanning unit 103. The two-dimensional scanning unit 103 is, for example, a galvanometer mirror and a resonant scanner. The laser beam deflected by the two-dimensional scanning unit 103 is converted from linearly polarized light to circularly polarized light by the ¼λ plate 104 and then irradiated to the sample 106 through the objective lens 105 mounted on the revolver 111. .

共焦点顕微鏡本体100では、二次元走査部103は対物レンズ105の瞳位置と光学的に共役な位置又はその近傍に配置されている。このため、二次元走査部103がレーザ光を偏向させることで、レーザ光の集光位置が対物レンズ105の焦点面上を、対物レンズの光軸と直交するXY方向に移動し、これによって、サンプル106がレーザ光で二次元に走査される。   In the confocal microscope main body 100, the two-dimensional scanning unit 103 is disposed at or near a position optically conjugate with the pupil position of the objective lens 105. For this reason, the two-dimensional scanning unit 103 deflects the laser light, so that the condensing position of the laser light moves on the focal plane of the objective lens 105 in the XY directions orthogonal to the optical axis of the objective lens, thereby The sample 106 is scanned two-dimensionally with laser light.

二次元走査部103による二次元走査(XY走査)と、対物レンズ105の光軸方向(Z方向)へのレボルバ111の駆動(Z走査)は、制御装置120によって制御される。即ち、制御装置120は、走査手段を制御する走査制御手段である。二次元走査部103による二次元走査の手法としては、例えば、共焦点顕微鏡で一般的に使用されている、ラスタスキャンが採用される。また、レボルバ111の回転駆動により共焦点顕微鏡本体100の光路上に配置される対物レンズ105の切替と、対物レンズ105の光軸と直交する方向(XY方向)へのX−Yステージ114の駆動も、制御装置120によって制御される。   Two-dimensional scanning (XY scanning) by the two-dimensional scanning unit 103 and driving of the revolver 111 in the optical axis direction (Z direction) of the objective lens 105 (Z scanning) are controlled by the control device 120. That is, the control device 120 is a scanning control unit that controls the scanning unit. As a method of two-dimensional scanning by the two-dimensional scanning unit 103, for example, raster scanning generally used in a confocal microscope is employed. In addition, the objective lens 105 arranged on the optical path of the confocal microscope main body 100 is switched by the rotation of the revolver 111, and the XY stage 114 is driven in a direction (XY direction) orthogonal to the optical axis of the objective lens 105. Is also controlled by the control device 120.

サンプル106の表面で反射したレーザ光(以降、反射光と記す)は、対物レンズ105を経由して入射する1/4λ板104で円偏光から直線偏光に変換される。その後に、二次元走査部103を経由してPBS102に入射する。このとき、PBS102に入射する反射光は、レーザ光源101側からPBS102に入射するレーザ光の偏光面とは直交する偏光面を有しているため、PBS102で反射して、結像レンズ107に導かれる。   Laser light reflected on the surface of the sample 106 (hereinafter referred to as reflected light) is converted from circularly polarized light to linearly polarized light by the ¼λ plate 104 incident through the objective lens 105. Thereafter, the light enters the PBS 102 via the two-dimensional scanning unit 103. At this time, since the reflected light incident on the PBS 102 has a polarization plane orthogonal to the polarization plane of the laser light incident on the PBS 102 from the laser light source 101 side, it is reflected by the PBS 102 and guided to the imaging lens 107. It is burned.

結像レンズ107は、PBS102で反射した反射光を集光させる。PBS102からの反射光路上に設けられたピンホール板108には、対物レンズ105の焦点面に形成されるレーザ光の集光位置と光学的に共役な位置にピンホールが形成されている。このため、サンプル106表面のある部位が対物レンズ105によるレーザ光の集光位置にある場合には、この部位からの反射光は、ピンホールに集光されて当該ピンホールを通過する。その一方、サンプル106表面のある部位が対物レンズ105によるレーザ光の集光位置からずれている場合には、この部位からの反射光は、ピンホールに集光しないので、ピンホールを通過せず、ピンホール板108によって遮断される。   The imaging lens 107 collects the reflected light reflected by the PBS 102. The pinhole plate 108 provided on the reflected light path from the PBS 102 has a pinhole formed at a position optically conjugate with the condensing position of the laser beam formed on the focal plane of the objective lens 105. For this reason, when a certain part on the surface of the sample 106 is at a condensing position of the laser light by the objective lens 105, the reflected light from this part is condensed in the pinhole and passes through the pinhole. On the other hand, when a certain part of the surface of the sample 106 is displaced from the laser light condensing position by the objective lens 105, the reflected light from this part does not condense on the pinhole and therefore does not pass through the pinhole. Are blocked by the pinhole plate 108.

ピンホールを通過した光は、光検出器109で検出される。光検出器109は、例えば、光電子増倍管(PMT)である。光検出器109は、このピンホールを通過した光、すなわち、サンプル106の表面のうち対物レンズ105によるレーザ光の集光位置に位置する部位のみからの反射光を受光する。そして、二次元走査部103からの同期信号に基づいてその受光光量に応じた大きさの検出信号をサンプリングし、当該部位の輝度を示す輝度信号として出力する。アナログ信号であるこの輝度信号は、AD変換器110でアナログ−デジタル変換された上で、当該部位の輝度を示す輝度データとして制御装置120へ出力される。なお、輝度データは、一旦図示しないメモリに1フレーム分保存される。1フレーム分の輝度データ(つまり、画像データと記す)は、その後、図示しないスケールで測定されたx、y、zの各位置データとともに制御装置120へ出力される。これにより、制御装置120は、サンプル106の共焦点画像を取得する。なお、共焦点画像は二次元画像の一種である。   The light that has passed through the pinhole is detected by the photodetector 109. The photodetector 109 is, for example, a photomultiplier tube (PMT). The photodetector 109 receives the light that has passed through the pinhole, that is, the reflected light from only the portion of the surface of the sample 106 that is located at the position where the objective lens 105 condenses the laser light. Based on the synchronization signal from the two-dimensional scanning unit 103, a detection signal having a magnitude corresponding to the amount of received light is sampled and output as a luminance signal indicating the luminance of the part. This luminance signal, which is an analog signal, is analog-digital converted by the AD converter 110 and then output to the control device 120 as luminance data indicating the luminance of the part. Note that the luminance data is temporarily stored in a memory (not shown) for one frame. The luminance data for one frame (that is, described as image data) is then output to the control device 120 together with the x, y, and z position data measured on a scale (not shown). Thereby, the control device 120 acquires a confocal image of the sample 106. A confocal image is a kind of two-dimensional image.

一方、白色光源115から出射した光(白色光)は、レボルバ111に装着されている対物レンズ105の瞳位置に集光して、その後、サンプル106に照射される。これにより、ケーラー照明によりサンプル106が照明される。サンプル106表面で反射した反射光は、結像レンズ116へ入射し、結像レンズ116は、この反射光をCCD(結合素子)カメラ117の受光面に集光する。   On the other hand, the light (white light) emitted from the white light source 115 is condensed on the pupil position of the objective lens 105 attached to the revolver 111 and then irradiated to the sample 106. Thereby, the sample 106 is illuminated by Koehler illumination. The reflected light reflected from the surface of the sample 106 enters the imaging lens 116, and the imaging lens 116 condenses the reflected light on the light receiving surface of a CCD (coupling element) camera 117.

カメラ117は、対物レンズ105の焦点面と光学的に共役な位置に受光面を有するカメラであり、例えば、CCD(Charge-Coupled Device)イメージセンサを有するCCDカメラ、CMOS(Complementary MOS)イメージセンサを有するCMOSカメラである。カメラ117は、カラー画像を取得するように構成されていることが望ましい。カメラ117は受光面に集光された反射光によりサンプル106を撮像して、サンプル106の非共焦点画像を生成する。生成された非共焦点画像は制御装置120に送られる。なお、非共焦点画像は二次元画像の一種である。   The camera 117 is a camera having a light receiving surface at a position optically conjugate with the focal plane of the objective lens 105. For example, a CCD camera having a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary MOS) image sensor is used. This is a CMOS camera. The camera 117 is preferably configured to acquire a color image. The camera 117 images the sample 106 with the reflected light collected on the light receiving surface and generates a non-confocal image of the sample 106. The generated non-confocal image is sent to the control device 120. A non-confocal image is a kind of two-dimensional image.

また、この顕微鏡装置1は、以下に説明するようにして、サンプル106の合成画像を生成する。まず、制御装置120が、レボルバ111を対物レンズ105の光軸方向(z方向)に駆動させて対物レンズ105のz位置を変更する。そして、z位置が所定距離だけ変化する毎に、二次元走査部103でサンプル106を走査して共焦点画像を取得する。このようにして取得された複数の共焦点画像における同一位置の画素(xy平面上で同一位置の画素)の輝度を比較する。画素毎に、輝度が最大となるz位置と最大輝度を推定し、最大輝度を示す輝度データと、輝度が最大となるz位置を示す高さデータとを生成して、保存する。その後、この保存された輝度データ及び/又は高さデータを用いて、サンプル106の合成画像を生成する。なお、高さデータが示す対物レンズ105のz位置は、例えば、レボルバ111に設けられたスケールで測定されたz位置である。また、レボルバ111の駆動制御のために指定したz位置でもよい。   In addition, the microscope apparatus 1 generates a composite image of the sample 106 as described below. First, the control device 120 drives the revolver 111 in the optical axis direction (z direction) of the objective lens 105 to change the z position of the objective lens 105. Each time the z position changes by a predetermined distance, the two-dimensional scanning unit 103 scans the sample 106 to obtain a confocal image. The luminances of the pixels at the same position (pixels at the same position on the xy plane) in the plurality of confocal images acquired in this way are compared. For each pixel, the z position and the maximum brightness with the maximum brightness are estimated, and brightness data indicating the maximum brightness and height data indicating the z position with the maximum brightness are generated and stored. Thereafter, a composite image of the sample 106 is generated using the stored luminance data and / or height data. Note that the z position of the objective lens 105 indicated by the height data is, for example, the z position measured with a scale provided in the revolver 111. Alternatively, the z position designated for driving control of the revolver 111 may be used.

ここで、合成画像とは、例えば、高さ画像、全焦点画像(エクステンドフォーカス画像ともいう)であり、異なるz位置で取得された複数の画像に基づいて生成される画像である。高さ画像は、サンプル106の表面形状を表す三次元画像であり、各画素の高さデータに基づいて生成される。全焦点画像は、サンプル106の表面全体にピントが合った二次元画像であり、各画素の最大輝度を示す輝度データに基づいて生成される。全焦点画像は、共焦点画像の代わりに非共焦点画像に基づいて生成されてもよい。   Here, the composite image is, for example, a height image, an omnifocal image (also referred to as an extended focus image), and is an image generated based on a plurality of images acquired at different z positions. The height image is a three-dimensional image representing the surface shape of the sample 106, and is generated based on the height data of each pixel. The omnifocal image is a two-dimensional image focused on the entire surface of the sample 106, and is generated based on luminance data indicating the maximum luminance of each pixel. The omnifocal image may be generated based on the non-confocal image instead of the confocal image.

制御装置120は、生成された合成画像を表示装置130へ出力し、表示装置130に表示させる。より詳細には、制御装置120は、取得予定枚数の共焦点画像すべての取得が完了する前に、合成画像を生成し表示装置130に表示させる。これにより、顕微鏡装置1の利用者に、従来の三次元形状測定装置よりも早期にサンプル106の三次元形状に関する情報を提供することができる。   The control device 120 outputs the generated composite image to the display device 130 and causes the display device 130 to display it. More specifically, the control device 120 generates a composite image and displays it on the display device 130 before the acquisition of all the confocal images of the planned number of acquisitions is completed. Thereby, the information regarding the three-dimensional shape of the sample 106 can be provided to the user of the microscope apparatus 1 earlier than the conventional three-dimensional shape measuring apparatus.

なお、合成画像は、所定枚数の共焦点画像が取得される毎に生成されてもよく、所定時間経過する毎に生成されてもよい。そして、合成画像が生成される毎に制御装置120が新たな合成画像を表示装置130に表示させる。これにより、合成画像が更新される毎により詳細な三次元形状に関する情報が利用者に提供されることになる。このため、利用者は、早期にサンプル106の三次元形状を把握することができる。   Note that the composite image may be generated every time a predetermined number of confocal images are acquired, or may be generated every time a predetermined time elapses. Each time a composite image is generated, the control device 120 causes the display device 130 to display a new composite image. As a result, more detailed information regarding the three-dimensional shape is provided to the user every time the composite image is updated. For this reason, the user can grasp | ascertain the three-dimensional shape of the sample 106 at an early stage.

さらに、この共焦点顕微鏡は、以下に説明するようにして、サンプル106の異なる複数の単位撮像領域に対して生成された複数の合成画像を貼り合わせて、貼り合わせ画像を生成する。   Further, the confocal microscope generates a composite image by combining a plurality of synthesized images generated for a plurality of unit imaging regions of the sample 106 as described below.

まず、制御装置120が、ある単位撮像領域から異なる単位撮像領域へ顕微鏡装置1の視野を移す際に、隣接する単位撮像領域が一定量以上重複するように、X−Yステージ114を移動させる。そして、隣接する単位撮像領域について生成された合成画像の相対位置関係をパターンマッチングにより判断する。その後、得られた相対位置関係を用いて合成画像を貼り合わせることで、貼り合わせ合成画像を生成する。   First, when the control device 120 moves the field of view of the microscope apparatus 1 from a certain unit imaging region to a different unit imaging region, the XY stage 114 is moved so that adjacent unit imaging regions overlap by a certain amount or more. And the relative positional relationship of the synthesized image produced | generated about the adjacent unit imaging area is judged by pattern matching. Then, a composite image is generated by pasting the composite image using the obtained relative positional relationship.

以上のように、顕微鏡装置1では、制御装置120が共焦点顕微鏡本体100を制御することで、共焦点画像、合成画像、貼り合わせ合成画像、及び、非共焦点画像が生成される。   As described above, in the microscope apparatus 1, the control device 120 controls the confocal microscope main body 100 to generate a confocal image, a composite image, a combined composite image, and a non-confocal image.

図3は、本発明の一実施形態に係る制御装置120の構成の一例を示した図である。制御装置120は、顕微鏡装置1を制御する装置であり、例えば、制御プログラムを実行するコンピュータである。制御装置120は、図3に示すように、CPU121、メモリ122、入出力インタフェース(I/F)123、記憶装置124、可搬記録媒体126を収容する可搬記録媒体駆動装置125を備えている。それらはバス127で接続されることにより各種データが各要素間で授受可能となっている。そして、CPU121が記憶装置124または可搬記録媒体126に記憶された制御プログラムをメモリ122にロードして実行することで、制御装置120により、顕微鏡装置1の動作が制御され、後述する画像表示処理が行われる。   FIG. 3 is a diagram illustrating an example of the configuration of the control device 120 according to an embodiment of the present invention. The control device 120 is a device that controls the microscope apparatus 1 and is, for example, a computer that executes a control program. As shown in FIG. 3, the control device 120 includes a CPU 121, a memory 122, an input / output interface (I / F) 123, a storage device 124, and a portable recording medium driving device 125 that houses a portable recording medium 126. . They are connected by a bus 127 so that various data can be exchanged between the elements. Then, the CPU 121 loads the control program stored in the storage device 124 or the portable recording medium 126 to the memory 122 and executes it, whereby the operation of the microscope apparatus 1 is controlled by the control device 120, and image display processing described later is performed. Is done.

メモリ122は、例えば、RAM(Random Access Memory)である。入出力I/F123は、例えば、共焦点顕微鏡本体100、表示装置130、入力装置140などの装置との間でデータを授受するための装置である。記憶装置124は、制御プログラムや制御プログラムの実行に必要な情報を不揮発的に記憶するものであり、例えば、ハードディスク装置である。可搬記録媒体駆動装置125は、光ディスクやコンパクトフラッシュ(登録商標)などの可搬記録媒体126を収容するものであり、可搬記録媒体126は、記憶装置124と同様に、制御プログラムや制御プログラムの実行に必要な情報を不揮発的に記憶するものである。   The memory 122 is, for example, a RAM (Random Access Memory). The input / output I / F 123 is a device for exchanging data with devices such as the confocal microscope main body 100, the display device 130, and the input device 140, for example. The storage device 124 stores a control program and information necessary for executing the control program in a nonvolatile manner, and is, for example, a hard disk device. The portable recording medium driving device 125 accommodates a portable recording medium 126 such as an optical disk or a compact flash (registered trademark), and the portable recording medium 126 is similar to the storage device 124 in that a control program and a control program are stored. The information necessary for execution of is stored in a nonvolatile manner.

表示装置130は、例えば、液晶ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ、プラズマディスプレイ、有機ELディスプレイである。入力装置140は、例えば、マウスやキーボードなどである。表示装置130及び入力装置140は、タッチパネルディスプレイ装置として一体に構成されてもよい。   The display device 130 is, for example, a liquid crystal display, a CRT (Cathode Ray Tube) display, a plasma display, or an organic EL display. The input device 140 is, for example, a mouse or a keyboard. The display device 130 and the input device 140 may be integrally configured as a touch panel display device.

以下、各実施例について具体的に説明する。
[実施例1]
図4は、本実施例に係る顕微鏡装置1aの機能的構成の一例を示す図である。本実施例に係る顕微鏡装置1aは、所定枚数の共焦点画像を取得する度に、合成画像を生成し表示するように構成されている。顕微鏡装置1aのハードウェア構成は、図1に示す顕微鏡装置1と同様であるので、構成要素については同一の符号で参照する。
Each example will be specifically described below.
[Example 1]
FIG. 4 is a diagram illustrating an example of a functional configuration of the microscope apparatus 1a according to the present embodiment. The microscope apparatus 1a according to the present embodiment is configured to generate and display a composite image every time a predetermined number of confocal images are acquired. Since the hardware configuration of the microscope apparatus 1a is the same as that of the microscope apparatus 1 shown in FIG. 1, the constituent elements are referred to by the same reference numerals.

顕微鏡装置1aは、サンプル106の二次元画像を取得する画像取得部2と、画像取得部2が取得した二次元画像に基づいて合成画像を生成する画像合成部3と、画像合成部3が生成した合成画像を表示装置130に表示させる表示制御部4を備えている。   The microscope apparatus 1a includes an image acquisition unit 2 that acquires a two-dimensional image of the sample 106, an image combination unit 3 that generates a combined image based on the two-dimensional image acquired by the image acquisition unit 2, and an image combination unit 3 The display control unit 4 for displaying the synthesized image on the display device 130 is provided.

画像取得部2は、サンプル106に対する対物レンズ105の相対位置が対物レンズ105の光軸方向に異なる複数の状態(つまり、z位置が異なる複数の状態)の各々で、サンプル106の二次元画像を取得する。ここで、二次元画像は、共焦点画像である。複数の状態は、例えば、利用者によって入力される画像取得条件に基づいて決定される。画像取得部2は、二次元画像を取得する度に、新たに取得した二次元画像を画像合成部3へ出力する。   The image acquisition unit 2 obtains a two-dimensional image of the sample 106 in each of a plurality of states in which the relative position of the objective lens 105 with respect to the sample 106 is different in the optical axis direction of the objective lens 105 (that is, a plurality of states having different z positions). get. Here, the two-dimensional image is a confocal image. The plurality of states are determined based on, for example, image acquisition conditions input by the user. The image acquisition unit 2 outputs the newly acquired two-dimensional image to the image composition unit 3 every time a two-dimensional image is acquired.

画像合成部3は、一連の処理を画像取得部2が終了する前に、画像取得部2が既に取得した2枚以上の二次元画像に基づいて、合成画像を生成する。ここで、一連の処理とは、複数の状態の各々でサンプル106の二次元画像を取得する処理全体をいう。例えば、画像取得条件に基づいて10箇所のz位置が決定された場合であれば、10箇所のz位置で計10枚の二次元画像を取得する処理のことである。   The image composition unit 3 generates a composite image based on two or more two-dimensional images already acquired by the image acquisition unit 2 before the image acquisition unit 2 ends the series of processes. Here, the series of processes refers to the entire process of acquiring a two-dimensional image of the sample 106 in each of a plurality of states. For example, if 10 z positions are determined based on the image acquisition conditions, this is a process of acquiring a total of 10 two-dimensional images at 10 z positions.

画像合成部3は、画像取得部2が所定枚数の二次元画像を取得する毎に、新たな合成画像を生成する。以降では、画像取得部2が1枚の二次元画像を取得する毎に、画像合成部3が新たな合成画像を生成する場合を例に説明する。   The image composition unit 3 generates a new composite image every time the image acquisition unit 2 acquires a predetermined number of two-dimensional images. Hereinafter, a case where the image synthesis unit 3 generates a new composite image every time the image acquisition unit 2 acquires one two-dimensional image will be described as an example.

表示制御部4は、上述した一連の処理を画像取得部2が終了する前に、画像合成部3が生成した合成画像を表示装置130に表示させる。より詳細には、表示制御部4は、画像取得部2が新たな二次元画像を取得し、画像合成部3が新たな合成画像を生成する度に、新たな合成画像を表示装置130に表示させる。   The display control unit 4 causes the display device 130 to display the composite image generated by the image composition unit 3 before the image acquisition unit 2 ends the series of processes described above. More specifically, the display control unit 4 displays a new composite image on the display device 130 every time the image acquisition unit 2 acquires a new two-dimensional image and the image composition unit 3 generates a new composite image. Let

以下、図5から図7を参照しながら、合成画像を生成し表示する処理(以降、画像表示処理と記す)について詳細に説明する。図5は、本実施例に係る画像表示処理を示すフローチャートである。図6は、表示装置130に表示される画面の一例を示す図である。図7は、表示装置130に表示される画面の別の例を示す図である。画像表示処理は、例えば、図6に示すGUI画面200のボタン260が押下されることで開始される。   Hereinafter, a process for generating and displaying a composite image (hereinafter referred to as an image display process) will be described in detail with reference to FIGS. FIG. 5 is a flowchart illustrating image display processing according to the present embodiment. FIG. 6 is a diagram illustrating an example of a screen displayed on the display device 130. FIG. 7 is a diagram illustrating another example of a screen displayed on the display device 130. The image display process is started, for example, when the button 260 on the GUI screen 200 shown in FIG. 6 is pressed.

制御装置120は、画像表示処理が開始されると、まず、画像取得条件を取得する(ステップS10)。ここでは、制御装置120は、利用者がGUI画面200を通じて入力した画像取得条件を取得する。画像取得条件は、例えば、設定領域240に設定された対物レンズの倍率、設定領域250に設定された走査条件などである。図6には、対物レンズの倍率が10倍に、z走査範囲が80から100に、設定された例が示されている。   When the image display process is started, the control device 120 first acquires an image acquisition condition (step S10). Here, the control device 120 acquires the image acquisition condition input by the user through the GUI screen 200. The image acquisition conditions are, for example, the magnification of the objective lens set in the setting area 240, the scanning conditions set in the setting area 250, and the like. FIG. 6 shows an example in which the magnification of the objective lens is set to 10 times and the z scanning range is set to 80 to 100.

画像取得条件が取得されると、制御装置120は、初期z位置での二次元画像の取得を共焦点顕微鏡本体100に指示する(ステップS20)。ここでは、制御装置120は、まず、画像取得条件に基づいて画像を取得すべき複数のz位置を決定する。具体的には、顕微鏡装置1aの被写界深度に基づいてz位置間のピッチが算出され、z走査範囲と算出されたピッチに基づいて複数のz位置が決定される。図6に示す例では、例えば、ピッチが2と算出され、走査範囲内のz=80、82、84、・・・、100の11個のz位置が決定される。さらに、制御装置120は、初期z位置として、z=80を決定し、z=80の位置で共焦点画像が取得されるように共焦点顕微鏡本体100を制御する。これにより、共焦点顕微鏡本体100はレボルバ111をz=80の位置に移動した後に、二次元走査を開始し、共焦点画像を生成する。なお、初期z位置は、画像取得条件に基づいて決定された複数のz位置のうちの下限のz位置とは限らない。例えば、上限のz位置に決定されてもよく、それ以外のz位置に決定されてもよい。   When the image acquisition condition is acquired, the control device 120 instructs the confocal microscope main body 100 to acquire a two-dimensional image at the initial z position (step S20). Here, the control device 120 first determines a plurality of z positions from which images are to be acquired based on image acquisition conditions. Specifically, the pitch between the z positions is calculated based on the depth of field of the microscope apparatus 1a, and a plurality of z positions are determined based on the z scanning range and the calculated pitch. In the example shown in FIG. 6, for example, the pitch is calculated as 2, and 11 z positions of z = 80, 82, 84,. Furthermore, the control device 120 determines z = 80 as the initial z position, and controls the confocal microscope main body 100 so that a confocal image is acquired at the position of z = 80. Thereby, the confocal microscope main body 100 starts the two-dimensional scanning after moving the revolver 111 to the position of z = 80, and produces | generates a confocal image. Note that the initial z position is not necessarily the lower limit z position among the plurality of z positions determined based on the image acquisition conditions. For example, the upper limit z position may be determined, or other z positions may be determined.

制御装置120は、二次元画像を取得する(ステップS30)。ここでは、制御装置120は、共焦点顕微鏡本体100からz=80の位置でのサンプル106の共焦点画像を取得する。   The control device 120 acquires a two-dimensional image (step S30). Here, the control device 120 acquires a confocal image of the sample 106 at a position of z = 80 from the confocal microscope main body 100.

その後、制御装置120は、次のz位置での二次元画像の取得を指示し(ステップS40)、再び二次元画像を取得する(ステップS50)。ステップS40とステップS50の処理は、z位置が異なる点を除き、ステップS20及びステップS30の処理と同様である。次のz位置は、例えば、ステップS20で決定された複数のz位置から昇順に従って決定されてもよく、降順に従って決定されてもよい。また、それ以外の方法で決定されてもよい。なお、この例では、昇順に従って次のz位置が決定される。   Thereafter, the control device 120 instructs acquisition of a two-dimensional image at the next z position (step S40), and acquires a two-dimensional image again (step S50). Steps S40 and S50 are the same as steps S20 and S30, except that the z position is different. The next z position may be determined in ascending order from the plurality of z positions determined in step S20, or may be determined in descending order, for example. Further, it may be determined by other methods. In this example, the next z position is determined in ascending order.

次に、制御装置120は、合成画像を生成する(ステップS60)。ここでは、制御装置120は、既に取得した2枚以上の共焦点画像に基づいて合成画像を生成する。なお、この実施例では、合成画像として高さ画像が生成される。さらに、高さ画像に加えて、全焦点画像も生成される。ステップS60の処理の詳細については、後述する。   Next, the control device 120 generates a composite image (step S60). Here, the control device 120 generates a composite image based on two or more confocal images that have already been acquired. In this embodiment, a height image is generated as a composite image. In addition to the height image, an omnifocal image is also generated. Details of the processing in step S60 will be described later.

合成画像が生成されると、制御装置120は、合成画像の表示を指示する(ステップS70)。ここでは、制御装置120は、ステップS60で生成した合成画像を表示装置130に表示させる。これにより、三次元画像を表示するための表示領域210に、高さ画像が表示される。また、利用者が二次元画像を表示するための表示領域220を選択することで、図7に示すように、表示領域220に、全焦点画像が表示される。なお、表示領域220には、全焦点画像の代わりに取得した最新の共焦点画像が表示されてもよい。   When the composite image is generated, the control device 120 instructs display of the composite image (step S70). Here, the control device 120 causes the display device 130 to display the composite image generated in step S60. Thereby, a height image is displayed in the display area 210 for displaying a three-dimensional image. Further, when the user selects the display area 220 for displaying the two-dimensional image, the omnifocal image is displayed in the display area 220 as shown in FIG. In the display area 220, the latest confocal image acquired instead of the omnifocal image may be displayed.

その後、制御装置120は、ステップS20で決定した全てのz位置で二次元画像を取得済みか否かを判定する(ステップS80)。そして、全てz位置で二次元画像が取得されるまでステップS40からステップS80の処理を繰り返し、図5に示す画像表示処理を終了する。   Thereafter, the control device 120 determines whether or not two-dimensional images have been acquired at all z positions determined in step S20 (step S80). Then, the process from step S40 to step S80 is repeated until the two-dimensional image is acquired at all the z positions, and the image display process shown in FIG.

以下、図8から図10を参照しながら、画像表示処理に含まれる画像合成処理について詳細に説明する。図8は、本実施例に係る画像合成処理を示すフローチャートである。図9は、微小領域を説明するための図である。図10は、信頼度データを説明するための図である。   Hereinafter, the image composition process included in the image display process will be described in detail with reference to FIGS. 8 to 10. FIG. 8 is a flowchart illustrating image composition processing according to the present embodiment. FIG. 9 is a diagram for explaining a minute region. FIG. 10 is a diagram for explaining the reliability data.

図8に示す画像合成処理が開始されると、制御装置120は、微小領域6を選択する(ステップS61)。微小領域6とは、輝度データが割り当てられた単位領域であり、図9に示すように、二次元画像の画素に相当する。ここでは、制御装置120は、二次元画像を構成する複数の微小領域から1つの微小領域を選択する。微小領域6の数(画素数)は、例えば、走査線1本当たりのサンプリング回数と走査線数の積で算出される画像当たりのサンプリング回数である。ただし、ビニング処理が行われる場合や一画素当たりに複数回サンプリングが行われる場合などはこの限りではない。   When the image composition process shown in FIG. 8 is started, the control device 120 selects the micro area 6 (step S61). The minute region 6 is a unit region to which luminance data is assigned, and corresponds to a pixel of a two-dimensional image as shown in FIG. Here, the control device 120 selects one minute area from a plurality of minute areas constituting the two-dimensional image. The number of small regions 6 (number of pixels) is, for example, the number of sampling times per image calculated by the product of the number of sampling times per scanning line and the number of scanning lines. However, this is not the case when binning processing is performed or when sampling is performed a plurality of times per pixel.

微小領域6が選択されると、制御装置120は、IZカーブを生成する(ステップS62)。ここでは、まず、取得済みの2枚以上の二次元画像の各々から、選択された微小領域6のIZ座標を取得する。IZ座標とは、サンプリングにより取得された微小領域6の輝度データが示す輝度と画像のz位置とで特定される座標である。IZ座標でのz位置は、レボルバ111のスケールで測定されたz位置でも、レボルバ111の駆動制御時に制御装置120が指定したz位置でもよい。次に、制御装置120は、2枚以上の二次元画像から取得した2つ以上のIZ座標をガウス関数でフィッティングして、微小領域6のIZカーブを生成する。例えば、取得したIZ座標のうちの輝度が最も大きいIZ座標とその近傍のIZ座標からIZカーブを生成してもよい。図10(a)、図10(b)は、取得した5つのIZ座標から、輝度が最も大きいIZ座標とその近傍の2つのIZ座標を選択し、選択した計3つのIZ座標に基づいてIZカーブ(IZカーブ11、IZカーブ12)を算出した例が示されている。   When the micro area 6 is selected, the control device 120 generates an IZ curve (step S62). Here, first, the IZ coordinates of the selected minute region 6 are acquired from each of the two or more acquired two-dimensional images. The IZ coordinate is a coordinate specified by the luminance indicated by the luminance data of the micro area 6 acquired by sampling and the z position of the image. The z position in the IZ coordinate may be the z position measured with the scale of the revolver 111 or the z position specified by the control device 120 during drive control of the revolver 111. Next, the control device 120 generates an IZ curve of the minute region 6 by fitting two or more IZ coordinates acquired from two or more two-dimensional images with a Gaussian function. For example, an IZ curve may be generated from an IZ coordinate having the highest luminance among the acquired IZ coordinates and an IZ coordinate in the vicinity thereof. 10 (a) and 10 (b) show that the IZ coordinate having the highest luminance and the two neighboring IZ coordinates are selected from the five acquired IZ coordinates, and the IZ coordinates based on the selected three IZ coordinates. An example in which curves (IZ curve 11 and IZ curve 12) are calculated is shown.

IZカーブが生成されると、制御装置120は、微小領域を代表する輝度(最大輝度)を示す輝度データと高さデータを生成する(ステップS63)。ここでは、微小領域の輝度が最大となるz位置と最大輝度を推定し、最大輝度を示す輝度データと、輝度が最大となるz位置を示す高さデータとを生成する。   When the IZ curve is generated, the control device 120 generates luminance data and height data indicating the luminance (maximum luminance) representing the minute region (step S63). Here, the z position and the maximum brightness at which the brightness of the minute region is maximized are estimated, and brightness data indicating the maximum brightness and height data indicating the z position at which the brightness is maximized are generated.

輝度データと高さデータが生成されると、制御装置120は、信頼度データを生成する(ステップS64)。信頼度データは、ステップS63で生成した高さデータの信頼度を示すデータである。信頼度データは、IZカーブの形状に基づいて生成されてもよい。例えば、図10(a)に示すIZカーブ11と図10(b)に示すIZカーブ12を比較すると、IZカーブ12は、曲線のピークが低く曲線の曲がりも緩やかである。このような形状では、情報不足に起因して誤ったピークが検出されている可能性がある。このため、IZカーブ11の信頼度(ここでは、0.5)は、IZカーブ12の信頼度(ここでは、1.0)に比べて低いと判断できる。   When the luminance data and height data are generated, the control device 120 generates reliability data (step S64). The reliability data is data indicating the reliability of the height data generated in step S63. The reliability data may be generated based on the shape of the IZ curve. For example, comparing the IZ curve 11 shown in FIG. 10A and the IZ curve 12 shown in FIG. 10B, the IZ curve 12 has a low curve peak and a gentle curve curve. In such a shape, an erroneous peak may be detected due to lack of information. For this reason, it can be determined that the reliability of the IZ curve 11 (here, 0.5) is lower than the reliability of the IZ curve 12 (here, 1.0).

なお、図10(c)に示すように、2枚以上の二次元画像から取得されたIZ座標の組み合わせによっては、ステップS62でIZカーブが生成できない場合がある。このような場合には、ステップS63で、輝度不定の輝度データと高さ不定の輝度データを生成し、ステップS64で、信頼度が0の信頼度データを生成しても良い。   As shown in FIG. 10C, depending on the combination of IZ coordinates acquired from two or more two-dimensional images, an IZ curve may not be generated in step S62. In such a case, luminance data with indefinite luminance and luminance data with indefinite height may be generated in step S63, and reliability data with a reliability of 0 may be generated in step S64.

信頼度データが生成されると、制御装置120は、全ての微小領域を選択済みか否かを判定する(ステップS65)。そして、全て微小領域が選択されるまでステップS61からステップS65の処理を繰り返す。これにより、微小領域毎に、最大輝度を示す輝度データと、輝度が最大となるz位置を示す高さデータと、信頼度データが生成される。   When the reliability data is generated, the control device 120 determines whether or not all the minute regions have been selected (step S65). Then, the processing from step S61 to step S65 is repeated until all the minute regions are selected. Thereby, luminance data indicating the maximum luminance, height data indicating the z position at which the luminance is maximum, and reliability data are generated for each minute region.

最後に、制御装置120は、合成画像を生成し(ステップS66)、図8に示す画像合成処理を終了する。ここでは、制御装置120は、微小領域毎に生成された高さデータと輝度データに基づいて合成画像を生成する。具体的には、高さデータに基づいて三次元形状を生成し、三次元形状の表面に輝度データが示す最大輝度を割り当てた高さ画像を生成する。さらに、微小領域毎の最大輝度を示す輝度データに基づいて、全焦点画像を生成する。   Finally, the control device 120 generates a composite image (step S66), and ends the image composition processing shown in FIG. Here, the control device 120 generates a composite image based on the height data and luminance data generated for each minute region. Specifically, a three-dimensional shape is generated based on the height data, and a height image in which the maximum luminance indicated by the luminance data is assigned to the surface of the three-dimensional shape is generated. Furthermore, an omnifocal image is generated based on luminance data indicating the maximum luminance for each minute region.

顕微鏡装置1aが図5及び図8に示す処理を実行することにより、共焦点画像が生成される度に、高さ画像が生成されて三次元表示が更新される。このため、顕微鏡装置1aによれば、利用者は、高さ画像に基づいて、早期にサンプル106の三次元形状を把握することが可能となる。   When the microscope apparatus 1a executes the processing shown in FIGS. 5 and 8, every time a confocal image is generated, a height image is generated and the three-dimensional display is updated. For this reason, according to the microscope apparatus 1a, the user can grasp the three-dimensional shape of the sample 106 at an early stage based on the height image.

また、顕微鏡装置1aは、図6に示すように、高さ画像とともに進捗バー211、上限表示212、下限表示213を表示領域210に表示してもよい。進捗バーは、一連の処理(共焦点画像を繰り返し取得する処理)の進捗を表す進捗情報の一例である。進捗バーを表示することで、利用者は、三次元形状に関する情報とともに処理の進捗も把握することができる。このため、処理が正常に実行されていることを確認することができ、安心感を得ることができる。上限表示212と下限表示213は、それぞれ、二次元画像を取得すべき上限のz位置に対応する撮像面の位置情報、下限のz位置に対応する撮像面の位置情報である。進捗バー211を上限表示212と下限表示213とともに表示することで、画像取得の進捗をさらに直感的に把握することができる。   Further, as shown in FIG. 6, the microscope apparatus 1 a may display a progress bar 211, an upper limit display 212, and a lower limit display 213 together with the height image in the display area 210. The progress bar is an example of progress information indicating the progress of a series of processes (a process of repeatedly acquiring confocal images). By displaying the progress bar, the user can grasp the progress of the process as well as information on the three-dimensional shape. For this reason, it can be confirmed that the process is normally executed, and a sense of security can be obtained. The upper limit display 212 and the lower limit display 213 are position information of the imaging surface corresponding to the upper limit z position from which a two-dimensional image is to be acquired, and position information of the imaging surface corresponding to the lower limit z position, respectively. By displaying the progress bar 211 together with the upper limit display 212 and the lower limit display 213, the progress of image acquisition can be grasped more intuitively.

さらに、二次元画像が取得された最新の撮像面の位置情報である現在表示を表示領域210に表示してもよい。また、現在表示の代わりに最新の共焦点画像を高さ画像とともに表示領域210に表示してもよい。この場合、最新の共焦点画像を、高さ画像中の最新の撮像面の位置に重ねて表示することが望ましい。   Further, a current display that is position information of the latest imaging surface from which the two-dimensional image is acquired may be displayed in the display area 210. Further, instead of the current display, the latest confocal image may be displayed in the display area 210 together with the height image. In this case, it is desirable to display the latest confocal image so as to overlap the position of the latest imaging surface in the height image.

また、顕微鏡装置1aでは、高さ画像により三次元形状に関する情報が一連の処理の完了を待たずに随時提供される。このため、利用者は、例えば、走査範囲が適切でない、観察倍率が適切でない、などの不適切な画像取得条件の設定を、早期に認識することができる。従って、例えば、一連の処理の早い段階で、GUI画面200上のボタン270を押下して処理を中止することが可能であり、無駄になる処理時間を短く抑えることができる。   Further, in the microscope apparatus 1a, information on the three-dimensional shape is provided from time to time without waiting for the completion of a series of processes. For this reason, the user can recognize early the setting of inappropriate image acquisition conditions, such as an inappropriate scanning range and an inappropriate observation magnification, for example. Therefore, for example, at an early stage of a series of processing, it is possible to stop the processing by pressing the button 270 on the GUI screen 200, and it is possible to reduce the processing time that is wasted.

また、顕微鏡装置1aでは、信頼度データに応じて合成画像の表示を変更してもよい。例えば、利用者によって指定された信頼度を閾値に設定し、信頼度データに基づいて合成画像中の閾値未満の信頼度を有する画素(微小領域)を特定し、当該画素を表示領域210上で透明に表示してもよい。また、透明に表示する代わりに指定された色で表示してもよい。なお、閾値となる信頼度は製品出荷時に予め設定されてもよい。   In the microscope apparatus 1a, the display of the composite image may be changed according to the reliability data. For example, the reliability specified by the user is set as a threshold value, a pixel (small area) having a reliability less than the threshold value in the composite image is specified based on the reliability data, and the pixel is displayed on the display area 210. It may be displayed transparently. Moreover, you may display by the designated color instead of displaying transparently. Note that the reliability serving as the threshold may be set in advance at the time of product shipment.

三次元形状の表面に最大輝度を割り当てた高さ画像を表示する例を示したが、最大輝度の代わりに高さに応じた色を三次元形状の表面に割り当てた高さ画像が表示領域210に表示されてもよい。この場合、制御装置120は、予め記憶装置124に記憶されているルックアップテーブル(以降、LUT)を参照して高さに応じた色を示す色データを取得する。そして、取得された色データと高さデータに基づいて高さ画像を生成する。また、最大輝度を表面に割り当てた高さ画像と高さに応じた色を表面に割り当てた高さ画像は、利用者の操作(例えば、右クリックなど)により任意に切り替えて表示されてもよい。   Although an example in which a height image with the maximum luminance assigned to the surface of the three-dimensional shape is displayed, a height image in which a color corresponding to the height is assigned to the surface of the three-dimensional shape instead of the maximum luminance is displayed in the display area 210 May be displayed. In this case, the control device 120 refers to a lookup table (hereinafter referred to as LUT) stored in advance in the storage device 124 and acquires color data indicating a color corresponding to the height. Then, a height image is generated based on the acquired color data and height data. In addition, the height image in which the maximum luminance is assigned to the surface and the height image in which a color corresponding to the height is assigned to the surface may be arbitrarily switched and displayed by a user operation (for example, right click). .

また、制御装置120は、図8に示す画像合成処理の代わりに、図11に示す画像合成処理を行ってもよい。図11に示す画像合成処理は、IZカーブを算出しない点、及び、信頼度データを生成しない点が、図8に示す画像合成処理と異なっている。さらに、ステップS92では、取得済みの二次元画像の各々から取得した微小領域6のIZ座標の中から輝度が最も大きいIZ座標が特定され、そのIZ座標から輝度データと高さデータが生成される。図11のステップS91、ステップS93、ステップS94の処理は、それぞれ、図8のステップS61、ステップS65、ステップS66の処理と同様である。   Further, the control device 120 may perform the image composition process illustrated in FIG. 11 instead of the image composition process illustrated in FIG. 8. The image composition process shown in FIG. 11 is different from the image composition process shown in FIG. 8 in that the IZ curve is not calculated and the reliability data is not generated. Further, in step S92, the IZ coordinate having the highest luminance is specified from the IZ coordinates of the minute area 6 acquired from each of the acquired two-dimensional images, and luminance data and height data are generated from the IZ coordinates. . The processing in step S91, step S93, and step S94 in FIG. 11 is the same as the processing in step S61, step S65, and step S66 in FIG. 8, respectively.

図11に示す画像合成処理を実行することで、合成画像をより短時間で生成することが可能となる。また、図11に示す画像合成処理では、図12(a)、図12(b)、図12(c)に示すように、現在表示214の高さまでの三次元形状が順次確定する。従って、現在表示214の高さまでの三次元形状は高い精度で表示される。このため、処理を途中で中止した場合であっても、それまでに生成された合成画像をサンプルの形状の解析や測定レポートの作成に利用することができる。   By executing the image composition process shown in FIG. 11, a composite image can be generated in a shorter time. In the image composition processing shown in FIG. 11, the three-dimensional shape up to the height of the current display 214 is sequentially determined as shown in FIGS. 12 (a), 12 (b), and 12 (c). Therefore, the three-dimensional shape up to the height of the current display 214 is displayed with high accuracy. For this reason, even if the process is stopped halfway, the composite image generated so far can be used for analyzing the shape of the sample and creating a measurement report.

[実施例2]
図13は、本実施例に係る顕微鏡装置1bの機能的構成の一例を示す図である。本実施例に係る顕微鏡装置1bは、所定枚数の共焦点画像を取得する度に、合成画像を生成し表示する点は、顕微鏡装置1aと同様である。顕微鏡装置1bは、カラー全焦点画像及びカラー合成画像を生成する点が、顕微鏡装置1aとは異なっている。顕微鏡装置1bのハードウェア構成は、顕微鏡装置1及び顕微鏡装置1aと同様であるので、構成要素については同一の符号で参照する。
[Example 2]
FIG. 13 is a diagram illustrating an example of a functional configuration of the microscope apparatus 1b according to the present embodiment. The microscope apparatus 1b according to the present embodiment is the same as the microscope apparatus 1a in that a composite image is generated and displayed every time a predetermined number of confocal images are acquired. The microscope apparatus 1b is different from the microscope apparatus 1a in that a color omnifocal image and a color composite image are generated. Since the hardware configuration of the microscope apparatus 1b is the same as that of the microscope apparatus 1 and the microscope apparatus 1a, the components are referred to by the same reference numerals.

顕微鏡装置1bは、サンプル106の二次元画像を取得する2つの画像取得部(第1の画像取得部2a、第2の画像取得部2b)と、2つの画像取得部が取得した二次元画像に基づいてカラー合成画像を生成する画像合成部3と、画像合成部3が生成したカラー合成画像を表示装置130に表示させる表示制御部4を備えている。   The microscope apparatus 1b includes two image acquisition units (a first image acquisition unit 2a and a second image acquisition unit 2b) that acquire a two-dimensional image of the sample 106, and two-dimensional images acquired by the two image acquisition units. An image composition unit 3 that generates a color composition image based on the image composition unit 3 and a display control unit 4 that causes the display device 130 to display the color composition image generated by the image composition unit 3 are provided.

第1の画像取得部2a、第2の画像取得部2bは、それぞれ、サンプル106に対する対物レンズ105の相対位置が対物レンズ105の光軸方向に異なる複数の状態(つまり、z位置が異なる複数の状態)の各々で、サンプル106の二次元画像を取得する。第1の画像取得部2aが取得する二次元画像は、共焦点画像である。第2の画像取得部2bが取得する二次元画像は、非共焦点画像であり、サンプル106の色彩を表すカラー画像である。画像合成部3は、共焦点画像に基づいて生成される高さデータと第2の画像取得部2bが取得したカラー画像に基づいて、サンプル106の三次元形状と色彩を表すカラー合成画像を生成する。   Each of the first image acquisition unit 2a and the second image acquisition unit 2b has a plurality of states in which the relative position of the objective lens 105 with respect to the sample 106 is different in the optical axis direction of the objective lens 105 (that is, a plurality of different z positions). In each state, a two-dimensional image of the sample 106 is acquired. The two-dimensional image acquired by the first image acquisition unit 2a is a confocal image. The two-dimensional image acquired by the second image acquisition unit 2 b is a non-confocal image and is a color image representing the color of the sample 106. The image composition unit 3 generates a color composite image representing the three-dimensional shape and color of the sample 106 based on the height data generated based on the confocal image and the color image acquired by the second image acquisition unit 2b. To do.

以下、図14及び図15を参照しながら、画像表示処理について詳細に説明する。図14は、本実施例に係る画像表示処理を示すフローチャートである。図15は、本実施例に係る画像合成処理を示すフローチャートである。   Hereinafter, the image display process will be described in detail with reference to FIGS. 14 and 15. FIG. 14 is a flowchart illustrating image display processing according to the present embodiment. FIG. 15 is a flowchart illustrating the image composition processing according to the present embodiment.

制御装置120は、図14に示す画像表示処理が開始されると、まず、画像取得条件を取得する(ステップS100)。この処理は、図5のステップS10と同様である。画像取得条件が取得されると、制御装置120は、初期z位置でのカラー画像の取得を共焦点顕微鏡本体100に指示する(ステップS110)。ここでは、制御装置120は、まず、画像取得条件に基づいて決定された複数のz位置から初期z位置を決定する。その後、初期z位置でカラー画像が取得されるように共焦点顕微鏡本体100を制御する。これにより、共焦点顕微鏡本体100はレボルバ111を初期z位置に移動した後に、CCDカメラ117でサンプル106を撮像する。   When the image display process shown in FIG. 14 is started, the control device 120 first acquires image acquisition conditions (step S100). This process is the same as step S10 in FIG. When the image acquisition condition is acquired, the control device 120 instructs the confocal microscope main body 100 to acquire a color image at the initial z position (step S110). Here, the control device 120 first determines an initial z position from a plurality of z positions determined based on the image acquisition conditions. Thereafter, the confocal microscope main body 100 is controlled so that a color image is acquired at the initial z position. Thereby, the confocal microscope main body 100 images the sample 106 with the CCD camera 117 after moving the revolver 111 to the initial z position.

制御装置120は、カラー画像を取得する(ステップS120)。ここでは、制御装置120は、CCDカメラ117から出力されたカラー画像を取得する。その後、制御装置120は、ステップS110で決定した全てのz位置でカラー画像を取得済みか否かを判定する(ステップS130)。未だカラー画像が取得されていないz位置がある場合には、次のz位置でのカラー画像の取得を指示し(ステップS140)、再びカラー画像を取得する(ステップS120)。そして、全てz位置でカラー画像が取得されるまでステップS120からステップS140の処理を繰り返す。   The control device 120 acquires a color image (step S120). Here, the control device 120 acquires the color image output from the CCD camera 117. Thereafter, the control device 120 determines whether or not color images have been acquired at all the z positions determined in step S110 (step S130). If there is a z position where a color image has not yet been acquired, acquisition of a color image at the next z position is instructed (step S140), and a color image is acquired again (step S120). Then, the process from step S120 to step S140 is repeated until a color image is obtained at all z positions.

全てのz位置でカラー画像が取得されると、制御装置120は、カラー全焦点画像を生成する(ステップS150)。ここでは、制御装置120は、全てのz位置で取得した複数のカラー画像に基づいて、カラー全焦点画像を生成する。   When color images are acquired at all z positions, the control device 120 generates a color omnifocal image (step S150). Here, the control device 120 generates a color omnifocal image based on a plurality of color images acquired at all z positions.

次に、制御装置120は、全てのz位置で共焦点画像が取得されるまで(ステップS220)、共焦点画像の取得(ステップS160からステップS190)、カラー合成画像の生成(ステップS200)、カラー合成画像の表示(ステップS210)を繰り返す。なお、ステップS160からステップS220の処理は、ステップS200を除き、図5のステップS20からステップS80の処理と同様である。   Next, until the confocal image is acquired at all z positions (step S220), the control device 120 acquires the confocal image (step S160 to step S190), generates a color composite image (step S200), and color. The composite image display (step S210) is repeated. Note that the processing from step S160 to step S220 is the same as the processing from step S20 to step S80 in FIG. 5 except for step S200.

ステップS200では、制御装置120は、図15に示す画像合成処理を行う。なお、図15に示す画像合成処理は、ステップS203で輝度データを生成しない点、及び、ステップS206でカラー合成画像を生成する点が、図8に示す画像合成処理と異なっている。ステップS201、ステップS202、ステップS204、ステップS205の各ステップは、それぞれステップS61、ステップS62、ステップS64、ステップS65の各ステップと同様である。   In step S200, the control device 120 performs an image composition process shown in FIG. The image composition process shown in FIG. 15 is different from the image composition process shown in FIG. 8 in that luminance data is not generated in step S203 and a color composite image is generated in step S206. Steps S201, S202, S204, and S205 are the same as steps S61, S62, S64, and S65, respectively.

ステップS203では、制御装置120は、高さデータを生成する。ここでは、制御装置120は、微小領域の輝度が最大となるz位置を特定し、当該z位置を示す高さデータを生成する。ステップS206では、制御装置120は、カラー合成画像を生成する。ここでは、制御装置120は、カラー全焦点画像と微小領域毎に生成された高さデータに基づいてカラーで表示される高さ画像を生成する。具体的には、高さデータに基づいて三次元形状を生成し、三次元形状の表面にカラー全焦点画像に含まれる対応する微小領域のカラー情報を割り当てる。   In step S203, the control device 120 generates height data. Here, the control device 120 specifies the z position where the brightness of the minute region is maximum, and generates height data indicating the z position. In step S206, the control device 120 generates a color composite image. Here, the control device 120 generates a height image displayed in color based on the color omnifocal image and the height data generated for each minute region. Specifically, a three-dimensional shape is generated based on the height data, and color information of a corresponding minute region included in the color omnifocal image is assigned to the surface of the three-dimensional shape.

本実施例に係る顕微鏡装置1bによれば、利用者は、カラー高さ画像に基づいて、早期にサンプル106の三次元形状を把握することが可能となる。また、三次元形状とともに、サンプル106のカラー情報を得ることができる。その他、進捗表示等が行われてもよい点は、顕微鏡装置1aと同様である。   According to the microscope apparatus 1b according to the present embodiment, the user can quickly grasp the three-dimensional shape of the sample 106 based on the color height image. Further, the color information of the sample 106 can be obtained together with the three-dimensional shape. In addition, the point where progress display etc. may be performed is the same as that of the microscope apparatus 1a.

高さデータを共焦点画像に基づいて算出する例を示したが、高さデータは、カラー画像に基づいて算出してもよい。その場合、例えば、図14のステップS100からステップS150を省略し、ステップS170及びステップS190でカラー画像を取得すればよい。その上で、図15のステップS202で、取得した2枚以上のカラー画像から、IZカーブの代わりに、微小領域毎のコントラストとz位置の関係を示す曲線(以降、CZカーブと記す。)を算出する。さらに、CZカーブに基づいてコントラストが最大となるz位置を微小領域毎に推定し、当該z位置を示す高さデータを生成する。なお、微小領域(画素)のコントラストは、例えば、当該微小領域の輝度と隣接する微小領域の輝度の差分に基づいて算出される。   Although an example in which the height data is calculated based on the confocal image has been shown, the height data may be calculated based on the color image. In that case, for example, steps S100 to S150 in FIG. 14 may be omitted, and a color image may be acquired in steps S170 and S190. Then, in step S202 of FIG. 15, from the two or more acquired color images, a curve indicating the relationship between the contrast and the z position for each minute region (hereinafter referred to as a CZ curve) is used instead of the IZ curve. calculate. Furthermore, the z position where the contrast is maximized is estimated for each minute region based on the CZ curve, and height data indicating the z position is generated. Note that the contrast of the minute area (pixel) is calculated based on, for example, the difference between the brightness of the minute area and the brightness of the adjacent minute area.

カラー画像から高さデータを生成することで、共焦点画像を取得することなく、カラー高さ画像を生成することができる。従って、利用者は、さらに早い段階でサンプル106の三次元形状を把握することが可能となる。   By generating height data from a color image, a color height image can be generated without acquiring a confocal image. Therefore, the user can grasp the three-dimensional shape of the sample 106 at an earlier stage.

[実施例3]
本実施例に係る顕微鏡装置は、所定時間経過毎に、合成画像を生成し表示するように構成されている点が、顕微鏡装置1aとは異なっている。本実施例に係る顕微鏡装置のハードウェア構成は、実施例1及び実施例2の顕微鏡装置と同様であるので、構成要素については同一の符号で参照する。
[Example 3]
The microscope apparatus according to the present embodiment is different from the microscope apparatus 1a in that the microscope apparatus is configured to generate and display a composite image every predetermined time. Since the hardware configuration of the microscope apparatus according to the present embodiment is the same as that of the microscope apparatus according to the first embodiment and the second embodiment, the constituent elements are referred to by the same reference numerals.

図16は、本実施例に係る画像取得処理を示すフローチャートである。図17は、本実施例に係る画像表示処理を示すフローチャートである。本実施例は、画像取得処理が画像表示処理から独立して非同期で行われる点が、上述した実施例と異なる。   FIG. 16 is a flowchart illustrating image acquisition processing according to the present embodiment. FIG. 17 is a flowchart illustrating image display processing according to the present embodiment. This embodiment is different from the above-described embodiment in that the image acquisition process is performed asynchronously independently of the image display process.

本実施例に係る顕微鏡装置では、例えば、図6に示すGUI画面200のボタン260が押下されると、図16に示す画像取得処理と図17に示す画像表示処理がそれぞれ開始される。なお、図16に示す画像取得処理のステップS300からステップS350は、図5に示す画像表示処理のステップS10からステップS50及びステップS80と同様である。そのため、詳細な説明は割愛する。   In the microscope apparatus according to the present embodiment, for example, when the button 260 on the GUI screen 200 shown in FIG. 6 is pressed, the image acquisition process shown in FIG. 16 and the image display process shown in FIG. 17 are started. Note that steps S300 to S350 of the image acquisition process shown in FIG. 16 are the same as steps S10 to S50 and S80 of the image display process shown in FIG. Therefore, detailed description is omitted.

制御装置120は、図17に示す画像表示処理が開始されると、まず、経過時間をカウントとするカウンタの動作を開始する(ステップS400)。その後、カウンタを監視して所定時間が経過するまで待機する(ステップS410)。所定時間経過すると、制御装置120は、合成画像を生成し(ステップS420)、合成画像の表示を指示する(ステップS430)。これらの処理は、図5のステップS60、ステップS70と同様である。   When the image display process shown in FIG. 17 is started, the control device 120 first starts the operation of the counter that counts the elapsed time (step S400). Thereafter, the counter is monitored and waits until a predetermined time elapses (step S410). When the predetermined time has elapsed, the control device 120 generates a composite image (step S420) and instructs display of the composite image (step S430). These processes are the same as steps S60 and S70 in FIG.

次に、制御装置120は、カウンタをリセットする(ステップS440)。その後、制御装置120は、図16に示す画像取得処理が終了したか否かを判定し(ステップS450)、終了するまでステップS410からステップS450の処理を繰り返す。   Next, the control device 120 resets the counter (step S440). Thereafter, the control device 120 determines whether or not the image acquisition process shown in FIG. 16 has been completed (step S450), and repeats the processes from step S410 to step S450 until the process is completed.

本実施例に係る顕微鏡装置によれば、所定時間毎に高さ画像が生成されて更新されるため、利用者は、早期にサンプル106の三次元形状を把握することが可能となる。   According to the microscope apparatus according to the present embodiment, since the height image is generated and updated every predetermined time, the user can grasp the three-dimensional shape of the sample 106 at an early stage.

[実施例4]
本実施例に係る顕微鏡装置は、顕微鏡装置の視野を複数のフィードに分割し、フィールド毎に共焦点画像を生成する点が、顕微鏡装置1aとは異なっている。本実施例に係る顕微鏡装置のハードウェア構成は、実施例1から実施例3の顕微鏡装置と同様であるので、構成要素については同一の符号で参照する。
[Example 4]
The microscope apparatus according to the present embodiment is different from the microscope apparatus 1a in that the field of view of the microscope apparatus is divided into a plurality of feeds and a confocal image is generated for each field. Since the hardware configuration of the microscope apparatus according to the present embodiment is the same as that of the microscope apparatus according to the first to third embodiments, the constituent elements are referred to by the same reference numerals.

図18は、視野を構成するフィールドを説明するための図である。本実施例では、顕微鏡装置は、顕微鏡装置の視野(二次走査範囲)を、複数のフィールド(フィールド21、フィールド22)に分割し、フィールド毎に複数の状態の各々でサンプル106の共焦点画像を取得する。なお、各フィールドには、走査線5が所定数おきに割り当てられる。図18では、フィールド21、フィールド22に、1つおきに走査線5が割り当てられている例が示されている。   FIG. 18 is a diagram for explaining the fields constituting the visual field. In this embodiment, the microscope apparatus divides the field of view (secondary scanning range) of the microscope apparatus into a plurality of fields (field 21 and field 22), and a confocal image of the sample 106 in each of a plurality of states for each field. To get. Each field is assigned with a predetermined number of scanning lines 5. FIG. 18 shows an example in which every other scanning line 5 is assigned to the field 21 and the field 22.

図19は、本実施例に係る画像表示処理を示すフローチャートである。制御装置120は、図19に示す画像表示処理が開始されると、まず、画像取得条件を取得する(ステップS500)。この処理は、図5のステップS10と同様である。画像取得条件が取得されると、制御装置120は、撮像対象とするフィールドを共焦点顕微鏡本体100に指示する(ステップS510)ここでは、制御装置120は、例えば、フィールド21を指定する。その後、制御装置120は、全てのz位置で共焦点画像が取得されるまで(ステップS580)、共焦点画像の取得(ステップS520からステップS550)、合成画像の生成(ステップS560)、合成画像の表示(ステップS570)を繰り返す。なお、ステップS560の画像合成処理では、取得済みのフィールドの画素データを補間して、未取得のフィールドの画素データが生成される。   FIG. 19 is a flowchart illustrating image display processing according to the present embodiment. When the image display process shown in FIG. 19 is started, the control device 120 first acquires image acquisition conditions (step S500). This process is the same as step S10 in FIG. When the image acquisition condition is acquired, the control device 120 instructs the confocal microscope main body 100 to select a field to be imaged (step S510). Here, for example, the control device 120 specifies the field 21. Thereafter, until the confocal image is acquired at all z positions (step S580), the control device 120 acquires the confocal image (steps S520 to S550), generates the composite image (step S560), and generates the composite image. The display (step S570) is repeated. Note that in the image composition processing in step S560, pixel data of an acquired field is interpolated to generate pixel data of an unacquired field.

全てのz位置で共焦点画像が取得されると、制御装置120は、さらに、全てのフィールドで共焦点画像を取得済みか否かを判定する(ステップS590)。未だ共焦点画像を取得していないフィールドが存在する場合には、制御装置120は、フィールドの変更を指示し(ステップS600)、全てのフィールドで共焦点画像が取得されるまで、ステップS520からステップS600の処理を繰り返す。   When confocal images are acquired at all z positions, the control device 120 further determines whether or not confocal images have been acquired for all fields (step S590). If there is a field for which a confocal image has not yet been acquired, the control device 120 instructs to change the field (step S600), and steps from step S520 to step until confocal images are acquired for all fields. The process of S600 is repeated.

本実施例に係る顕微鏡装置によっても、共焦点画像が生成される度に、高さ画像(合成画像)が生成されて三次元表示が更新される。このため、利用者は、高さ画像に基づいて、早期にサンプル106の三次元形状を把握することができる。   Also with the microscope apparatus according to the present embodiment, every time a confocal image is generated, a height image (composite image) is generated and the three-dimensional display is updated. For this reason, the user can grasp the three-dimensional shape of the sample 106 at an early stage based on the height image.

また、本実施例に係る顕微鏡装置では、走査線5を間引いて共焦点画像が取得されるため、1枚の共焦点画像の取得に要する時間が短くなる。その結果、高さ画像が表示されるまでの時間も短縮される。また、あるフィールドで全てのz位置で共焦点画像を取得した後に、別のフィールドでの共焦点画像の取得が開始される。このため、z走査範囲全体を表示した高さ画像が顕微鏡装置1aよりも短時間で表示される。従って、顕微鏡装置1aよりも早期にサンプル106の三次元形状を把握することができる。また、最終的には全てのフィールドで共焦点画像が取得されるため、顕微鏡装置1aと同等の精度の高さ画像を得ることができる。   Further, in the microscope apparatus according to the present embodiment, since the confocal image is acquired by thinning the scanning lines 5, the time required for acquiring one confocal image is shortened. As a result, the time until the height image is displayed is also shortened. In addition, after acquiring confocal images at all z positions in a certain field, acquisition of confocal images in another field is started. For this reason, the height image displaying the entire z scanning range is displayed in a shorter time than the microscope apparatus 1a. Therefore, the three-dimensional shape of the sample 106 can be grasped earlier than the microscope apparatus 1a. Moreover, since confocal images are finally acquired in all fields, a high-accuracy image equivalent to that of the microscope apparatus 1a can be obtained.

上述した実施例は、発明の理解を容易にするために具体例を示したものであり、本発明は上述した実施例に限定されるものではない。顕微鏡装置及び画像表示プログラムは、特許請求の範囲に記載した本発明の範囲内で、さまざまな変形、変更が可能である。例えば、顕微鏡装置は、様々な追加の機能を有していてもよい。例えば、図20(a)に示すように、利用者が合成画像に対して切断面を指定することで、図20(b)に示すような、断面を表示する機能を有してもよい。断面部分は指定した色で表示するようにしてもよい。また、表示領域210に表示中の合成画像をマウス操作で移動させたり回転させたりできるようにしてもよい。さらに、合成画像は、表示領域210だけではなく、マップ画像を表示する表示領域230にも表示されてもよい。また、図1では、工業用途で使用される工業系の顕微鏡装置を例示したが、本願発明は、生物系の顕微鏡装置にも適用可能である。   The embodiments described above are specific examples for facilitating understanding of the invention, and the present invention is not limited to the embodiments described above. The microscope apparatus and the image display program can be variously modified and changed within the scope of the present invention described in the claims. For example, the microscope apparatus may have various additional functions. For example, as illustrated in FIG. 20A, the user may have a function of displaying a cross section as illustrated in FIG. 20B by designating a cut surface for the composite image. The cross section may be displayed in a designated color. Further, the composite image being displayed in the display area 210 may be moved or rotated by a mouse operation. Furthermore, the composite image may be displayed not only in the display area 210 but also in the display area 230 that displays the map image. Moreover, although the industrial type microscope apparatus used for an industrial use was illustrated in FIG. 1, this invention is applicable also to a biological microscope apparatus.

一般に共焦点顕微鏡では、画像データとx、y、zの各位置データは、別々の転送路を介して制御装置120へ出力される。具体的には、画像データは、位置データよりも高速な転送路を介して制御装置120へ出力される。しかしながら、上述した顕微鏡装置では、位置データは、従来画像データの転送に利用されていた転送路を介して出力されてもよく、即ち、画像データと同じ転送路で転送されてもよい。位置データは、例えば、1フレームの期間を示すフレーム有効信号が「有効」に設定されている期間中であって、画像データを構成する最終ラインのデータを転送後に、画像データと同じ転送路で転送される。これにより、位置データが画像データから大きく遅れることなく制御装置120に転送されるため、高さ画像などの合成画像を、従来よりも高速に生成することが可能となる。   In general, in a confocal microscope, image data and x, y, and z position data are output to the control device 120 via separate transfer paths. Specifically, the image data is output to the control device 120 via a transfer path that is faster than the position data. However, in the above-described microscope apparatus, the position data may be output through a transfer path that has been conventionally used for transferring image data, that is, may be transferred through the same transfer path as the image data. The position data is, for example, during the period in which the frame valid signal indicating the period of one frame is set to “valid”, and after the last line of data constituting the image data is transferred, Transferred. As a result, the position data is transferred to the control device 120 without much delay from the image data, so that a composite image such as a height image can be generated at a higher speed than in the past.

また、以上では1フレーム期間中はz位置が変化しない例を示したが、駆動効率向上のため、z位置が、フレーム期間中継続的に変化し、1フレーム期間経過する毎に1ピッチ分だけ変化するように制御されてもよい。この場合、z位置のデータは、測定精度を維持するため、フレーム毎ではなくライン毎に取得されることが望ましい。例えば、画像データを構成する各ラインのデータを転送後、次のラインのデータを転送する前に、そのラインに対応するz位置のデータをそのラインのデータと同じ転送路で転送してもよい。これにより、測定精度を維持したまま駆動効率を向上させることができる。また、位置データが画像データから大きく遅れることなく制御装置120に転送されるため、高さ画像などの合成画像を、従来よりも高速に生成することが可能となる。   In addition, although the example in which the z position does not change during one frame period has been described above, the z position continuously changes during the frame period and only one pitch is passed every frame period for improving the driving efficiency. It may be controlled to change. In this case, it is desirable that the z position data be acquired for each line, not for each frame, in order to maintain measurement accuracy. For example, after transferring the data of each line constituting the image data, before transferring the data of the next line, the data at the z position corresponding to the line may be transferred through the same transfer path as the data of the line. . As a result, it is possible to improve drive efficiency while maintaining measurement accuracy. In addition, since the position data is transferred to the control device 120 without much delay from the image data, it is possible to generate a composite image such as a height image at a higher speed than in the past.

1、1a、1b・・・顕微鏡装置、2・・・画像取得部、2a・・・第1の画像取得部、2b・・・第2の画像取得部、3・・・画像合成部、4・・・表示制御部、5・・・走査線、6・・・微小領域、11、12・・・IZカーブ、21、22・・・フィールド、100・・・共焦点顕微鏡本体、101・・・レーザ光源、102・・・PBS、103・・・二次元走査部、104・・・1/4λ板、105・・・対物レンズ、106・・・サンプル、106a、106b、106c・・・表面、107・・・結像レンズ、108・・・ピンホール板、109・・・光検出器、110・・・AD変換器、111・・・レボルバ、114・・・X−Yステージ、115・・・白色光源、116・・・結像レンズ、117・・・カメラ、120・・・制御装置、121・・・CPU、122・・・メモリ、123・・・入出力I/F、124・・・記憶装置、125・・・可搬記録媒体駆動装置、126・・・可搬記憶媒体、127・・・バス、130・・・表示装置、140・・・入力装置、200・・・GUI画面、210、220、230・・・表示領域、211・・・進捗バー、212・・・上限表示、213・・・下限表示、214・・・現在表示、240、250・・・設定領域、260、270・・・ボタン DESCRIPTION OF SYMBOLS 1, 1a, 1b ... Microscope apparatus, 2 ... Image acquisition part, 2a ... 1st image acquisition part, 2b ... 2nd image acquisition part, 3 ... Image composition part, 4 ... Display control unit, 5 ... Scanning line, 6 ... Small region, 11, 12 ... IZ curve, 21,22 ... Field, 100 ... Confocal microscope body, 101 ...・ Laser light source, 102... PBS, 103... Two-dimensional scanning unit, 104... Quarter-λ plate, 105 .. objective lens, 106 .. sample, 106 a, 106 b, 106 c. 107 ... imaging lens, 108 ... pinhole plate, 109 ... photodetector, 110 ... AD converter, 111 ... revolver, 114 ... XY stage, 115. ..White light source, 116 ... imaging lens, 117 ... camera, 120 ..Control device 121 ... CPU, 122 ... memory, 123 ... input / output I / F, 124 ... storage device, 125 ... portable recording medium drive device, 126 ... possible Portable storage medium, 127 ... bus, 130 ... display device, 140 ... input device, 200 ... GUI screen, 210, 220, 230 ... display area, 211 ... progress bar, 212 ... upper limit display, 213 ... lower limit display, 214 ... current display, 240, 250 ... setting area, 260, 270 ... button

Claims (17)

サンプルに対する対物レンズの相対位置が前記対物レンズの光軸方向に異なる複数の状態の各々で、前記サンプルの二次元画像を取得する画像取得部と、
前記複数の状態の各々で前記サンプルの二次元画像を取得する一連の処理を前記画像取得部が終了する前に、前記画像取得部が既に取得した2枚以上の二次元画像に基づいて、合成画像を生成する画像合成部と、
前記一連の処理を前記画像取得部が終了する前に、前記画像合成部が生成した前記合成画像を表示装置に表示させる表示制御部と、を備える
ことを特徴とする顕微鏡装置。
In each of a plurality of states in which the relative position of the objective lens with respect to the sample is different in the optical axis direction of the objective lens, an image acquisition unit that acquires a two-dimensional image of the sample;
A series of processes for acquiring a two-dimensional image of the sample in each of the plurality of states is synthesized based on two or more two-dimensional images already acquired by the image acquisition unit before the image acquisition unit ends. An image composition unit for generating an image;
A microscope apparatus comprising: a display control unit configured to display on the display device the composite image generated by the image composition unit before the image acquisition unit ends the series of processes.
請求項1に記載の顕微鏡装置において、
前記画像合成部は、
前記サンプルの微小領域毎に高さデータを生成し、
前記微小領域毎に生成された高さデータに基づいて、前記合成画像を生成する
ことを特徴とする顕微鏡装置。
The microscope apparatus according to claim 1, wherein
The image composition unit
Generate height data for each micro area of the sample,
The microscope apparatus, wherein the composite image is generated based on height data generated for each minute region.
請求項2に記載の顕微鏡装置において、
前記画像合成部は、前記微小領域毎に生成された高さデータと当該微小領域を代表する輝度を示す輝度データとに基づいて、前記合成画像を生成する
ことを特徴とする顕微鏡装置。
The microscope apparatus according to claim 2, wherein
The microscope apparatus, wherein the image composition unit generates the composite image based on height data generated for each minute region and luminance data representing luminance representing the minute region.
請求項2に記載の顕微鏡装置において、
前記画像合成部は、前記微小領域毎に生成された高さデータと当該微小領域を代表するコントラストを示すコントラストデータとに基づいて、前記合成画像を生成する
ことを特徴とする顕微鏡装置。
The microscope apparatus according to claim 2, wherein
The microscope apparatus, wherein the image composition unit generates the composite image based on height data generated for each minute region and contrast data representing contrast representing the minute region.
請求項2に記載の顕微鏡装置において、
前記画像合成部は、前記微小領域毎に生成された高さデータと、高さに対して割り当てられた色を示す色データとに基づいて、前記合成画像を生成する
ことを特徴とする顕微鏡装置。
The microscope apparatus according to claim 2, wherein
The image synthesizing unit generates the synthesized image based on height data generated for each minute region and color data indicating a color assigned to the height. .
請求項2に記載の顕微鏡装置において、さらに、
前記サンプルの色彩を表わすカラー画像を取得する第2の画像取得部を備え、
前記画像取得部は、共焦点画像を取得する第1の画像取得部であり、
前記画像合成部は、前記微小領域毎に生成された高さデータと前記第2の画像取得部が取得した前記カラー画像とに基づいて、前記サンプルの三次元形状及び色彩を表す前記合成画像を生成する
ことを特徴とする顕微鏡装置。
The microscope apparatus according to claim 2, further comprising:
A second image acquisition unit for acquiring a color image representing the color of the sample;
The image acquisition unit is a first image acquisition unit that acquires a confocal image,
The image synthesizing unit generates the synthesized image representing the three-dimensional shape and color of the sample based on the height data generated for each minute region and the color image acquired by the second image acquiring unit. The microscope apparatus characterized by producing | generating.
請求項1乃至請求項6のいずれか1項に記載の顕微鏡装置において、
前記画像取得部が所定枚数の二次元画像を取得する毎に、又は、所定時間経過毎に、
前記画像合成部は、新たな合成画像を生成し、
前記表示制御部は、前記新たな合成画像を前記表示装置に表示させる
ことを特徴とする顕微鏡装置。
The microscope apparatus according to any one of claims 1 to 6,
Every time the image acquisition unit acquires a predetermined number of two-dimensional images, or every elapse of a predetermined time,
The image composition unit generates a new composite image,
The display device is configured to display the new composite image on the display device.
請求項1乃至請求項7のいずれか1項に記載の顕微鏡装置において、
前記表示制御部は、前記一連の処理の進捗を表す進捗情報を前記表示装置に表示させる
ことを特徴とする顕微鏡装置。
The microscope apparatus according to any one of claims 1 to 7,
The microscope apparatus, wherein the display control unit causes the display device to display progress information indicating progress of the series of processes.
請求項1乃至請求項8のいずれか1項に記載の顕微鏡装置において、
前記表示制御部は、前記画像取得部で二次元画像が取得された最新の撮像面の位置情報を前記合成画像とともに前記表示装置に表示させる
ことを特徴とする顕微鏡装置。
The microscope apparatus according to any one of claims 1 to 8,
The display control unit causes the display device to display the latest position information of the imaging surface from which the two-dimensional image has been acquired by the image acquisition unit together with the composite image.
請求項1乃至請求項9のいずれか1項に記載の顕微鏡装置において、
前記表示制御部は、前記表示装置がマップ画像を表示する領域に前記合成画像を表示するように、前記表示装置を制御する
ことを特徴とする顕微鏡装置。
The microscope apparatus according to any one of claims 1 to 9,
The microscope apparatus, wherein the display control unit controls the display device so that the display device displays the composite image in a region where a map image is displayed.
請求項1乃至請求項10のいずれか1項に記載の顕微鏡装置において、
前記表示制御部は、前記画像取得部が取得した最新の二次元画像を前記合成画像とともに前記表示装置に表示させる
ことを特徴とする顕微鏡装置。
The microscope apparatus according to any one of claims 1 to 10,
The display control unit causes the display device to display the latest two-dimensional image acquired by the image acquisition unit together with the composite image.
請求項1乃至請求項11のいずれか1項に記載の顕微鏡装置において、
前記表示制御部は、前記画像取得部が取得した最新の二次元画像と前記合成画像とを切り替えて前記表示装置に表示させる
ことを特徴とする顕微鏡装置。
The microscope apparatus according to any one of claims 1 to 11,
The display control unit switches between the latest two-dimensional image acquired by the image acquisition unit and the composite image, and causes the display device to display the microscope device.
請求項1乃至請求項12のいずれか1項に記載の顕微鏡装置において、
前記画像合成部は、前記合成画像に基づいて、前記サンプルの指定された断面での断面プロファイルを生成し、
前記表示制御部は、前記画像合成部が生成した前記断面プロファイルを前記表示装置に表示させる
ことを特徴とする顕微鏡装置。
The microscope apparatus according to any one of claims 1 to 12,
The image composition unit generates a cross-sectional profile at a designated cross section of the sample based on the composite image,
The microscope apparatus, wherein the display control unit causes the display device to display the cross-sectional profile generated by the image synthesis unit.
請求項1乃至請求項13のいずれか1項に記載の顕微鏡装置において、
前記画像取得部の視野は、複数のフィールドで構成され、
前記画像取得部は、前記一連の処理を、前記視野を構成するフィールド毎に繰り返す
ことを特徴とする顕微鏡装置。
The microscope apparatus according to any one of claims 1 to 13,
The field of view of the image acquisition unit is composed of a plurality of fields,
The microscope apparatus, wherein the image acquisition unit repeats the series of processes for each field constituting the visual field.
請求項1に記載の顕微鏡装置において、
前記画像合成部は、前記画像取得部が既に取得した前記複数の二次元画像に基づいて、前記サンプルの微小領域毎に高さデータと当該高さデータの信頼度を示す信頼度データとを生成する
ことを特徴とする顕微鏡装置。
The microscope apparatus according to claim 1, wherein
The image synthesis unit generates height data and reliability data indicating the reliability of the height data for each minute region of the sample based on the plurality of two-dimensional images already acquired by the image acquisition unit. A microscope apparatus characterized by:
請求項15に記載の顕微鏡装置において、
前記表示制御部は、前記信頼度データに応じて前記合成画像の表示を変更する
ことを特徴とする顕微鏡装置。
The microscope apparatus according to claim 15,
The microscope apparatus, wherein the display control unit changes the display of the composite image according to the reliability data.
サンプルに対する顕微鏡装置の対物レンズの相対位置が前記対物レンズの光軸方向に異なる複数の状態の各々で前記サンプルの二次元画像を取得する一連の処理を前記顕微鏡装置が終了する前に、前記顕微鏡装置が既に取得した2枚以上の二次元画像に基づいて、前記サンプルの三次元形状を表す合成画像を生成し、
前記一連の処理を前記顕微鏡装置が終了する前に、生成した前記合成画像を表示装置に表示させる
処理をコンピュータに実行させる画像表示プログラム。
Before the microscope apparatus finishes a series of processes for acquiring a two-dimensional image of the sample in each of a plurality of states in which the relative position of the objective lens of the microscope apparatus with respect to the sample is different in the optical axis direction of the objective lens, the microscope Based on two or more two-dimensional images already acquired by the apparatus, a composite image representing the three-dimensional shape of the sample is generated,
An image display program for causing a computer to execute a process of displaying the generated composite image on a display device before the microscope apparatus ends the series of processes.
JP2016011573A 2016-01-25 2016-01-25 Microscope device, and image display program Pending JP2017134115A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016011573A JP2017134115A (en) 2016-01-25 2016-01-25 Microscope device, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016011573A JP2017134115A (en) 2016-01-25 2016-01-25 Microscope device, and image display program

Publications (1)

Publication Number Publication Date
JP2017134115A true JP2017134115A (en) 2017-08-03

Family

ID=59503765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016011573A Pending JP2017134115A (en) 2016-01-25 2016-01-25 Microscope device, and image display program

Country Status (1)

Country Link
JP (1) JP2017134115A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019074668A (en) * 2017-10-17 2019-05-16 株式会社キーエンス Magnifying observation device
JP2019211603A (en) * 2018-06-04 2019-12-12 株式会社片岡製作所 Observed body imaging method using optical observation device, and optical observation device
CN111133359A (en) * 2017-09-29 2020-05-08 徕卡生物***成像股份有限公司 Two and three dimensional fixed Z-scan
CN113472984A (en) * 2021-06-28 2021-10-01 平湖莱顿光学仪器制造有限公司 Image acquisition method, device, system, storage medium and equipment

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000316120A (en) * 1999-03-03 2000-11-14 Denso Corp Fully focusing image pickup device
JP2001082935A (en) * 1999-09-10 2001-03-30 Keyence Corp Three-dimensional measuring apparatus
JP2003281501A (en) * 2002-03-20 2003-10-03 Mitani Corp Omnifocal image producing system
JP2008083601A (en) * 2006-09-28 2008-04-10 Keyence Corp Confocal microscope, confocal microscope operation method, confocal microscope operation program, and recording medium and recorded equipment which can be read by computer
JP2008216086A (en) * 2007-03-06 2008-09-18 Microdent:Kk Quantification standardizing (phase contrast) microscope
JP2009282356A (en) * 2008-05-23 2009-12-03 Olympus Corp Microscope apparatus
JP2014023628A (en) * 2012-07-25 2014-02-06 Olympus Corp Fluorescent observation device
JP2014222320A (en) * 2013-05-14 2014-11-27 オリンパス株式会社 Microscope system, determination method of lamination area, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000316120A (en) * 1999-03-03 2000-11-14 Denso Corp Fully focusing image pickup device
JP2001082935A (en) * 1999-09-10 2001-03-30 Keyence Corp Three-dimensional measuring apparatus
JP2003281501A (en) * 2002-03-20 2003-10-03 Mitani Corp Omnifocal image producing system
JP2008083601A (en) * 2006-09-28 2008-04-10 Keyence Corp Confocal microscope, confocal microscope operation method, confocal microscope operation program, and recording medium and recorded equipment which can be read by computer
JP2008216086A (en) * 2007-03-06 2008-09-18 Microdent:Kk Quantification standardizing (phase contrast) microscope
JP2009282356A (en) * 2008-05-23 2009-12-03 Olympus Corp Microscope apparatus
JP2014023628A (en) * 2012-07-25 2014-02-06 Olympus Corp Fluorescent observation device
JP2014222320A (en) * 2013-05-14 2014-11-27 オリンパス株式会社 Microscope system, determination method of lamination area, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111133359A (en) * 2017-09-29 2020-05-08 徕卡生物***成像股份有限公司 Two and three dimensional fixed Z-scan
JP2019074668A (en) * 2017-10-17 2019-05-16 株式会社キーエンス Magnifying observation device
JP7097168B2 (en) 2017-10-17 2022-07-07 株式会社キーエンス Magnifying observation device
JP2019211603A (en) * 2018-06-04 2019-12-12 株式会社片岡製作所 Observed body imaging method using optical observation device, and optical observation device
CN113472984A (en) * 2021-06-28 2021-10-01 平湖莱顿光学仪器制造有限公司 Image acquisition method, device, system, storage medium and equipment
CN113472984B (en) * 2021-06-28 2023-10-20 平湖莱顿光学仪器制造有限公司 Image acquisition method, device, system, storage medium and equipment

Similar Documents

Publication Publication Date Title
CN110214290B (en) Micro-spectral measurement method and system
US9383569B2 (en) Magnification observation device
JP6147080B2 (en) Microscope system, method for determining bonded area, and program
JP6147079B2 (en) Microscope system, method for determining bonded area, and program
JP2013050594A (en) Magnified observation device, magnified observation method and magnified observation program
JP2017134115A (en) Microscope device, and image display program
JP6132650B2 (en) Confocal microscope
JP2010112969A (en) Confocal microscope
JP6716383B2 (en) Microscope system, information presentation method, program
JP2016114795A (en) Microscope system, setting value calculation method and program
JP2016099370A (en) Microscope system
JP4874069B2 (en) Confocal microscope
US7078664B2 (en) Confocal laser microscope displaying target images side by side
JP2010170025A (en) Image output system, image output method, and image output program
JP2006145857A (en) Scanning laser microscope
JP6423261B2 (en) Microscope system, function calculation method, and program
JP2007286284A (en) Confocal scanning type microscopic system and observation method using the same
JP2007304058A (en) Micro height measuring device
JP2007286147A (en) Infrared microscope
JP6177000B2 (en) Laser scanning microscope
JP6552039B2 (en) Scanning microscope and pixel data generation method
JP2015102694A (en) Alignment device, microscopic system, alignment method, and alignment program
JP2004170509A (en) Confocal microscopic system having measurement repetition mode
JP4493293B2 (en) Laser scanning confocal microscope
JP7134839B2 (en) MICROSCOPE DEVICE, CONTROL METHOD AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190925

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200407