WO2014174920A1 - 画像取得装置及び画像取得装置のフォーカス方法 - Google Patents

画像取得装置及び画像取得装置のフォーカス方法 Download PDF

Info

Publication number
WO2014174920A1
WO2014174920A1 PCT/JP2014/055988 JP2014055988W WO2014174920A1 WO 2014174920 A1 WO2014174920 A1 WO 2014174920A1 JP 2014055988 W JP2014055988 W JP 2014055988W WO 2014174920 A1 WO2014174920 A1 WO 2014174920A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
optical path
sample
optical
imaging
Prior art date
Application number
PCT/JP2014/055988
Other languages
English (en)
French (fr)
Inventor
英資 大石
岩瀬 富美雄
正利 奥河
Original Assignee
浜松ホトニクス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013122960A external-priority patent/JP6010506B2/ja
Application filed by 浜松ホトニクス株式会社 filed Critical 浜松ホトニクス株式会社
Publication of WO2014174920A1 publication Critical patent/WO2014174920A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/245Devices for focusing using auxiliary sources, detectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • G02B7/346Systems for automatic generation of focusing signals using different areas in a pupil plane using horizontal and vertical areas in the pupil plane, i.e. wide area autofocusing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals

Definitions

  • the present invention relates to an image acquisition device and a focus method of the image acquisition device.
  • Patent Document 1 As a conventional image acquisition apparatus, for example, there is an apparatus described in Patent Document 1.
  • light from a test object is divided by a half prism and received by a photoelectric conversion element formed of a two-dimensional imaging element such as a CCD area sensor.
  • the control circuit of the photoelectric conversion element has a scanning area setting unit that can arbitrarily set two scanning areas for two-dimensionally scanning the light receiving surface. Then, focusing control is executed based on the focusing error signal of the light received in the two scanning areas set by the scanning area setting unit.
  • the light from the test object is divided using a half prism. For this reason, it is difficult to ensure the amount of light in the photoelectric conversion element, and the detection accuracy of the focal position of the sample may be reduced. Further, when the light amount of the focus position detection light is increased, the light amount of the imaging light of the test object is decreased, and it may be difficult to secure the light amount at the time of imaging.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image acquisition apparatus that can secure a light amount during imaging and can accurately detect the focal position of a sample and a focusing method thereof. To do.
  • an image acquisition apparatus includes a stage on which a sample is placed, a light source that irradiates light toward the sample, and an objective lens that is disposed so as to face the sample on the stage.
  • a light guide optical system including a light branching unit that branches the optical image of the sample into the first optical path for image acquisition and the second optical path for focus control, and the first light branched into the first optical path
  • First imaging means for acquiring a first image by an image
  • second imaging means for acquiring a second image by a second optical image branched into a second optical path, and analyzing the second image
  • a focal point calculation unit that calculates focal point information of the sample based on the analysis result, and an optical path difference that causes an optical path difference in the second optical image along the in-plane direction of the imaging surface of the second imaging unit.
  • the in-focus calculation means is arranged in the second optical path so that a first incident area where the optical image is incident and a second incident area where the second optical image where no optical path difference is incident are formed.
  • One of the second image acquired in the first incident area and the second image acquired in the second incident area is selected as the second image used for the analysis. .
  • the optical path length difference of the second optical image can be formed without branching the light in the second optical path for focus control by arranging the optical path difference generating member. Therefore, the amount of light to the second optical path necessary for obtaining the focal position information can be suppressed, and the amount of light when the first imaging unit performs imaging can be ensured. Further, in this image acquisition device, due to the arrangement of the optical path difference generating member, an optical path difference is generated between the first incident area where the second optical image having the optical path difference is incident on the imaging surface of the second imaging unit. And a second incident region on which no second light image is incident.
  • the focal point calculation means it becomes possible to select which of the second image incident on the first incident area and the second image incident on the second incident area is used for the analysis. Since an optimum focal point information calculation method can be selected according to the degree of unevenness of the sample, the focal point information can be calculated with high accuracy.
  • optical path difference generating member and the second imaging unit may be arranged in the second optical path so that light from the imaging position of the first imaging unit in the sample enters the second incident region.
  • the calculation process of the focal point calculation by the focal point calculation means can be simplified.
  • the image processing apparatus further includes an image evaluation unit that evaluates the first image acquired by the first imaging unit, and the in-focus calculation unit performs the first incidence based on the evaluation result of the first image by the image evaluation unit. It is preferable to select one of the second image acquired in the region and the second image acquired in the second incident region. Depending on the calculation method of the in-focus information, there may be a case where the accuracy of calculating the in-focus information decreases due to, for example, the degree of unevenness of the sample. In such a case, which of the second image acquired in the first incident region and the second image acquired in the second incident region is used for the analysis based on the evaluation result of the first image. By selecting, the accuracy of the in-focus information can be secured.
  • the optical path difference generating member further includes a visual field driving means for moving the visual field position of the objective lens with respect to the sample, and the optical path difference generating member is a second one on the imaging surface of the second imaging means as the visual field driving means moves the visual lens position.
  • 2 has a first portion whose thickness continuously changes along the moving direction of the optical image, and a second portion having a constant thickness, and the first portion is incident on the imaging surface as a first incident.
  • the region is formed, and the second portion forms the second incident region on the imaging surface.
  • the first incident region and the second incident region can be formed on the imaging surface of the second imaging unit with a simple configuration of the optical path difference generating member.
  • the second imaging means has a two-dimensional imaging device having a plurality of pixel rows and capable of rolling readout, and rolling readout of each pixel row in synchronization with the movement of the visual field position of the objective lens by the visual field driving means. It is preferable to acquire a 2nd image by performing.
  • the image data from each pixel row includes contrast information equivalent to that when the focal position of the objective lens is changed in the same part of the sample. Is included. Therefore, the in-focus information can be calculated quickly and accurately based on the contrast information.
  • the in-focus calculation means is read out by at least two pixel columns among the pixel columns of the two-dimensional image sensor. It is preferable to calculate the focal point information of the sample based on the difference between the contrast values of the image data.
  • the in-focus calculation means create a focus map based on the calculated in-focus information.
  • the focus map can be created with high accuracy.
  • the focus method of the image acquisition apparatus includes a stage on which a sample is placed, a light source that irradiates light toward the sample, an objective lens that is disposed so as to face the sample on the stage, and
  • a light guide optical system including a light branching unit that branches a light image of a sample into a first light path for image acquisition and a second light path for focus control, and a first light image branched into the first light path
  • a focal point calculation unit that calculates focal point information of the sample based on the analysis result, and an optical path difference generation member that generates an optical path difference in the second optical image along the in-plane direction of the imaging surface of the second imaging unit.
  • a focusing method for an image acquisition device comprising: an imaging surface of a second imaging means; An optical path difference generating member is formed such that a first incident area where a second optical image in which an optical path difference has occurred enters and a second incident area in which a second optical image without an optical path difference enters. Is arranged in the second optical path, and the second image acquired in the first incident region and the second image acquired in the second incident region are used for the analysis. It is characterized by having the in-focus calculation means select it as an image.
  • the optical path length difference of the second optical image can be formed without branching the light in the second optical path for focus control by arranging the optical path difference generating member. Therefore, the amount of light to the second optical path necessary for obtaining the focal position information can be suppressed, and the amount of light when the first imaging unit performs imaging can be ensured. Further, in the focusing method of the image acquisition device, the first incident region where the second optical image in which the optical path difference has occurred is incident on the imaging surface of the second imaging unit by the arrangement of the optical path difference generating member, and the optical path And a second incident region on which a second optical image that does not cause a difference is incident.
  • the focal point calculation means it becomes possible to select which of the second image incident on the first incident area and the second image incident on the second incident area is used for the analysis. Since an optimum focal point information calculation method can be selected according to the degree of unevenness of the sample, the focal point information can be calculated with high accuracy.
  • the amount of light at the time of imaging can be secured, and the focal position of the sample can be detected with high accuracy.
  • FIG. 1 It is a figure which shows one Embodiment of the macro image acquisition apparatus which comprises the image acquisition apparatus which concerns on this invention. It is a figure which shows one Embodiment of the micro image acquisition apparatus which comprises the image acquisition apparatus which concerns on this invention. It is a figure which shows an example of a 2nd imaging device. It is a figure which shows an example of the combination of an optical path difference production
  • 3 is a flowchart showing an operation when dynamic prefocus is performed in the image acquisition apparatus shown in FIGS. 1 and 2.
  • 3 is a flowchart showing an operation when a focus map is created in the image acquisition device shown in FIGS. 1 and 2. It is a figure which shows the modification of an optical path difference production
  • FIG. 1 is a diagram showing an embodiment of a macro image acquisition device constituting an image acquisition device according to the present invention.
  • FIG. 2 is a diagram showing an embodiment of a micro image acquisition device constituting the image acquisition device according to the present invention.
  • the image acquisition device M includes a macro image acquisition device M1 that acquires a macro image of the sample S and a micro image acquisition device M2 that acquires a micro image of the sample S. .
  • the image acquisition device M sets, for example, a plurality of line-shaped divided regions 40 (see FIG. 6) with respect to the macro image acquired by the macro image acquisition device M1, and each divided region 40 is subjected to high magnification by the micro image acquisition device M2. It is a device that generates a virtual slide image that is a digital image by acquiring and synthesizing.
  • the macro image acquisition apparatus M1 includes a stage 1 on which a sample S is placed as shown in FIG.
  • the stage 1 is an XY stage that is driven in the horizontal direction by a motor or actuator such as a stepping motor (pulse motor) or a piezoelectric actuator.
  • the sample S to be observed with the image acquisition device M is a biological sample such as a cell, for example, and is placed on the stage 1 in a state of being sealed with a slide glass. By driving the stage 1 in the XY plane, the imaging position with respect to the sample S can be moved.
  • the stage 1 can reciprocate between the macro image acquisition device M1 and the micro image acquisition device M2, and has a function of transporting the sample S between both devices.
  • macro image acquisition the entire image of the sample S may be acquired by one imaging, or the sample S may be divided into a plurality of regions and imaged.
  • the stage 1 may be provided in both the macro image acquisition device M1 and the micro image acquisition device M2.
  • a light source 2 that irradiates light toward the sample S and a condenser lens 3 that condenses the light from the light source 2 onto the sample S are disposed.
  • the light source 2 may be arranged so as to irradiate light obliquely toward the sample S.
  • a light guide optical system 4 that guides a light image from the sample S and an imaging device 5 that captures a light image of the sample S are disposed on the upper surface side of the stage 1.
  • the light guide optical system 4 includes an imaging lens 6 that forms an optical image from the sample S on the imaging surface of the imaging device 5.
  • the imaging device 5 is an area sensor that can acquire a two-dimensional image, for example.
  • the imaging device 5 acquires the entire image of the light image of the sample S incident on the imaging surface via the light guide optical system 4 and stores it in a virtual slide image storage unit 39 described later.
  • the micro image acquisition device M2 has a light source 12 and a condenser lens 13 similar to those of the macro image acquisition device M1 on the bottom surface side of the stage 1, as shown in FIG.
  • a light guide optical system 14 that guides a light image from the sample S is disposed on the upper surface side of the stage 1.
  • the optical system that irradiates the sample S with light from the light source 12 employs an excitation light irradiation optical system for irradiating the sample S with excitation light and a dark field illumination optical system for acquiring a dark field image of the sample S. May be.
  • the light guide optical system 4 includes an objective lens 15 disposed so as to face the sample S, and a beam splitter (light branching means) 16 disposed at a subsequent stage of the objective lens 15.
  • the objective lens 15 is provided with a motor or actuator such as a stepping motor (pulse motor) or a piezoelectric actuator that drives the objective lens 15 in the Z direction along the optical axis direction of the objective lens 15.
  • a motor or actuator such as a stepping motor (pulse motor) or a piezoelectric actuator that drives the objective lens 15 in the Z direction along the optical axis direction of the objective lens 15.
  • the beam splitter 16 is a part that branches the optical image of the sample S into a first optical path L1 for image acquisition and a second optical path L2 for focus control.
  • the beam splitter 16 is disposed at an angle of about 45 degrees with respect to the optical axis from the light source 12.
  • the optical path passing through the beam splitter 16 is the first optical path L1
  • the beam splitter 16 The optical path reflected by 16 is the second optical path.
  • an imaging lens 17 that forms an optical image (first optical image) of the sample S that has passed through the beam splitter 16, and an imaging surface is disposed at the imaging position of the imaging lens 17.
  • a first imaging device (first imaging means) 18 is arranged.
  • the first imaging device 18 is a device that can acquire a one-dimensional image (first image) based on a first light image of the sample S.
  • a two-dimensional CCD image sensor that can be driven by TDI (Time Delay Integration).
  • a line scan image sensor such as a line sensor is used.
  • the first imaging device 18 is a device that can acquire a two-dimensional image such as a CMOS sensor or a CCD sensor. There may be.
  • the first images picked up by the first image pickup device 18 are sequentially stored in a temporary storage memory such as a lane buffer, and then compressed and output to an image generation unit 38 to be described later.
  • an optical path difference generation member 21 that causes an optical path difference in the second optical image is disposed in the front stage of the second imaging device 20.
  • the field adjustment lens 19 is preferably configured so that the second light image is formed on the second imaging device 20 with the same size as the first light image.
  • the second imaging device 20 is a device that can acquire a two-dimensional image (second image) based on the second optical image of the sample S.
  • the second imaging device 20 has a two-dimensional imaging device that has a plurality of pixel columns and can perform rolling readout.
  • An example of such a two-dimensional imaging device is a CMOS image sensor.
  • the imaging surface 20a of the second imaging device 20 is disposed so as to substantially coincide with the XZ plane orthogonal to the second optical path L2.
  • a reset signal, a readout start signal, and a readout end signal are output based on the drive cycle of the drive clock, so that each pixel column 20b is output. Exposure and readout are controlled.
  • the exposure period of one pixel column 20b is a period from discharge of charge accompanying a reset signal to reading of charge accompanying a read start signal.
  • the readout period of one pixel column 20b is a period from the start of charge readout accompanying the readout start signal to the end of charge readout accompanying the readout end signal. Note that a read start signal for the next pixel column can also be used as a read end signal.
  • readout start signals output for each pixel column 20b are sequentially output with a predetermined time difference.
  • the reading speed in the rolling reading is controlled by the time interval of the reading start signal for reading each pixel column 20b. If the time interval of the read start signal is shortened, the read speed is increased, and if the time interval of the read start signal is increased, the read speed is decreased.
  • the adjustment of the reading interval between the adjacent pixel columns 20b and 20b can be performed, for example, by adjusting the frequency of the driving clock, setting the delay period during the reading period, and changing the number of clocks that define the reading start signal.
  • the optical path difference generating member 21 is a glass member that causes an optical path difference in the second optical image along the in-plane direction of the imaging surface 20a.
  • the optical path difference generating member 21 is configured by combining a first member 22 having a prism shape with a right-angled triangular section and a flat plate-like second member 23.
  • the first member 22 has a thickness continuously along the in-plane direction of the imaging surface 20a, that is, the moving direction (Z direction) of the second optical image on the imaging surface 20a accompanying the scanning of the sample S. It arrange
  • the second member 23 has a constant thickness and is disposed corresponding to the other end side region (lower half region) of the imaging surface 20a.
  • the light from the planned imaging position (position to be imaged) in the first imaging device 18 in the sample S is one end side region (upper half region) of the imaging surface 20a. ).
  • the optical path difference generating member 21 and the second imaging device 20 are configured such that light from the imaging position of the sample S in the first imaging device 18 enters the other end side region (lower half region) of the imaging surface 20a. Is arranged.
  • the first optical image in which the optical path difference occurs is incident on the imaging surface 20a of the second imaging device 20 as shown in FIG. 4B.
  • the first incident region 24A the second optical image incident on the imaging surface 20a has a longer optical path from the upper end side toward the center side.
  • the second optical image incident on the imaging surface 20a has the same optical path at any position.
  • the first member 22 and the second member 23 are preferably arranged so that the surface facing the second imaging device 20 is parallel to the imaging surface 20a of the second imaging device. Thereby, refraction of light by the surface facing the second imaging device 20 can be reduced, and the amount of light received by the second imaging device 20 can be ensured.
  • the thickness of the second member 23 is preferably equal to the thickness of the first member 22 at the position of the pixel row 20b corresponding to the focus center.
  • the optical path length of the second optical image incident on the second incident area 24B becomes equal to the optical path length of the first optical image incident on the first imaging device 18, so that the in-focus calculation unit 37 The calculation process of the in-focus information can be simplified.
  • FIG. 5 is a block diagram showing functional components of the image acquisition apparatus.
  • the image acquisition apparatus M includes a computer system including a CPU, a memory, a communication interface, a storage unit such as a hard disk, an operation unit 31 such as a keyboard, a monitor 32, and the like. Further, the image acquisition apparatus M includes, as functional components of the control unit 33, a stage driving unit 34, an objective lens driving unit 35, an operation control unit 36, a focal point calculation unit 37, and an image generation unit 38.
  • the virtual slide image storage unit 39 and the image evaluation unit 41 are provided.
  • the stage driving unit 34 is a part that functions as visual field driving means for moving the visual field position of the objective lens 15 with respect to the sample S.
  • the stage drive unit 34 is configured by a motor or actuator such as a stepping motor (pulse motor) or a piezoelectric actuator, for example.
  • the stage drive unit 34 moves the stage 1 in the XY directions with respect to a plane having a predetermined angle (for example, 90 degrees) with respect to a plane orthogonal to the optical axis of the objective lens 15 based on control by the operation control unit 36.
  • a predetermined angle for example, 90 degrees
  • the stage drive unit 34 scans the stage 1 on which the sample S is placed at a predetermined speed based on the control by the operation control unit 36.
  • the scanning of the stage 1 relatively sequentially moves the imaging field of the sample S in the first imaging device 18 and the second imaging device 20.
  • the operation control unit 36 has the objective lens 15 for the sample S in the scanning direction along the imaging line Ln (n is a natural number) composed of a plurality of divided regions 40. Control to move the visual field position.
  • a unidirectional scan in which the scanning direction is the same between the adjacent imaging lines Ln is adopted. .
  • the scanning speed of the stage 1 during image acquisition is constant, there is actually a period in which the scanning speed is unstable immediately after the start of scanning due to the influence of vibration of the stage 1 and the like. For this reason, each of the acceleration period in which the scanning width longer than that of the divided region 40 is set, the stage 1 is accelerated, the stabilization period until the scanning speed of the stage 1 is stabilized, and the deceleration period in which the stage 1 is decelerated is It is preferable that this occurs when scanning outside the divided area 40. Thereby, it is possible to acquire an image in accordance with a constant speed period in which the scanning speed of the stage 1 is constant. Note that imaging may be started during the stabilization period, and the data portion acquired during the stabilization period after image acquisition may be deleted. Such a method is suitable when using an imaging device that requires idle reading of data.
  • the objective lens drive unit 35 is configured by a motor or actuator such as a stepping motor (pulse motor) or a piezo actuator, for example, in the same manner as the stage drive unit 34.
  • the objective lens driving unit 35 moves the objective lens 15 in the Z direction along the optical axis of the objective lens 15 based on the control by the operation control unit 36. Thereby, the focal position of the objective lens 15 with respect to the sample S moves.
  • the objective lens driving unit 35 does not drive the objective lens 15 during the analysis of the focal position by the in-focus calculation unit 37, and moves the objective lens 15 in the Z direction until the analysis of the next focal position is started. It is preferable to drive only along one direction. In this case, during the scanning of the sample S, the analysis period of the focal position and the objective lens driving period based on the analysis result occur alternately. By not changing the positional relationship between the objective lens 15 and the sample S during the analysis of the focal position, the analysis accuracy of the focal position can be ensured.
  • the operation control unit 36 is a part that controls operations of the second imaging device 20 and the stage driving unit 34. More specifically, the operation control unit 36 has a visual field V of the objective lens 15 by the stage driving unit 34 so that an optical image of a predetermined part in the sample S is exposed by each pixel row 20b of the second imaging device 20. The movement of the predetermined portion of the sample S in the inside and the rolling readout of the second imaging device 20 are synchronized.
  • the operation control unit 36 moves the sample S within the visual field V of the objective lens 15 at a constant speed when the visual field V of the objective lens 15 moves in one divided region 40.
  • the stage drive unit 34 is controlled so that Further, as illustrated in FIG. 7B, the operation control unit 36 moves the imaging Sb of the optical image of the sample S on the imaging surface 20 a of the second imaging device 20 and each pixel column on the imaging surface 20 a.
  • the stage drive unit 34 and the second imaging device 20 are controlled so that the reading direction of 20b matches.
  • the operation control unit 36 changes the reading speed for rolling reading based on the moving speed of the sample S within the field of view V of the objective lens 15. May be.
  • the exposure time in each pixel row 20b is set based on at least the width of the predetermined portion Sa of the sample S in the scanning direction and the moving speed of the predetermined portion Sa of the sample S within the field of view V of the objective lens 15. More preferably, the magnifications of the objective lens 15 and the field adjustment lens 19 are also considered. Thereby, the optical image of the predetermined part Sa of the sample S can be exposed by each pixel row 20b.
  • the imaging Sb of light from the predetermined portion Sa of the sample S on the imaging surface 20a of the second imaging device 20 is the first pixel row 20b in the imaging region. Is reached, exposure of the first pixel row 20b is started.
  • the position of the predetermined portion Sa of the sample S within the field of view V of the objective lens 15 is moved.
  • the image Sb of light from the predetermined portion Sa of the sample S reaches the second pixel row 20b in the imaging region, and the second pixel row 20b. The exposure is started. Further, at the timing when the image Sb of light from the predetermined portion Sa of the sample S passes through the first pixel row 20b, reading of the first pixel row 20b is started.
  • the position of the predetermined portion Sa of the sample S in the field of view V of the objective lens 15 further moves in the scanning direction.
  • the imaging Sb of the light from the predetermined portion Sa of the sample S reaches the third pixel row 20b of the imaging region, and the third pixel row 20b.
  • the exposure is started.
  • reading of the second pixel row 20b is started at the timing when the image Sb of light from the predetermined portion Sa of the sample S passes through the second pixel row 20b.
  • the reading of the first pixel column 20b is completed simultaneously with the reading of the second pixel column 20b.
  • the image data read from each pixel row 20b is all image data for the same part of the sample S. Further, since the optical path difference generating member 21 is arranged in the second optical path L2, the image data read from each pixel row 20b is obtained when the focal position of the objective lens 15 is changed for the same part of the sample S, respectively. Contrast information equivalent to is included.
  • the image data read by each pixel row 20b is sequentially output to the in-focus calculation unit 37.
  • the operation control unit 36 determines that the optical image of the predetermined part in the sample S is the second imaging device 20.
  • the movement of a predetermined portion of the sample S within the field of view V of the objective lens 15 by the objective lens driving unit 35 and the rolling readout of the second imaging device 20 may be synchronized so that each pixel row 20b is exposed.
  • the objective lens driving unit 35 functions as a visual field driving unit that moves the visual field position of the objective lens 15 with respect to the sample S.
  • the focal point calculation unit 37 is a part that analyzes the second image acquired by the second imaging device 20 and calculates the focal point information of the sample S based on the analysis result. Based on the instruction information from the image evaluation unit 41, the in-focus calculation unit 37 belongs to the image data read from the pixel row 20b belonging to the first incident area 24A on the imaging surface 20a and the second incident area 24B. One of the image data read from the pixel row 20b is selected as a second image used for analysis.
  • the image acquisition apparatus M When image data read from the pixel row 20b belonging to the first incident area 24A is used for analysis, the image acquisition apparatus M first acquires in-focus information of the sample S in the divided area 40 to be imaged next. Dynamic prefocus performed immediately before imaging by the imaging device 18 is executed.
  • the focal point calculation unit 37 uses, for example, a front pin / rear pin method as a method for calculating the focal point information.
  • the in-focus calculation unit 37 selects at least two pixel columns 20b of the pixel columns 20b of the second imaging device 20 from among the pixel columns 20b.
  • the thickness continuously increases along the moving direction (Z direction) of the second optical image on the imaging surface 20a accompanying the scanning of the sample S.
  • the optical path difference generating member 21 is arranged, and the second light image in which the optical path difference has occurred enters the first incident area 24A of the imaging surface 20a of the second imaging device 20. Therefore, in the first incident region 24A, based on the positions of the two pixel columns 20b to be selected, a light image (front pin) focused before the first light image incident on the first imaging device 18 is selected. ) And a focused optical image (rear pin) later.
  • the focal point calculation unit 37 The difference between the contrast values of the image data read by the selected pixel row 20b is obtained.
  • the focal point calculation unit 37 outputs instruction information to the effect that the objective lens 15 is driven in a direction approaching the sample S to the objective lens driving unit 35.
  • the focal point calculation unit 37 outputs instruction information indicating that the objective lens 15 is driven in a direction away from the sample S to the objective lens driving unit 35.
  • the in-focus calculation unit 37 has a pixel column 20b corresponding to the front pin and a pixel column corresponding to the rear pin so as to be symmetrical with respect to the pixel column 20b corresponding to the focus center. 20b is selected.
  • the pixel row 20b corresponding to the focus center is a sample that passes through the second optical path L2 and the optical path difference generation member 21 with an optical path length that matches the optical path length of the optical image of the sample S imaged by the first imaging device 18. This refers to the pixel row 20b on which the S light image is incident.
  • the in-focus calculation unit 37 the (k ⁇ m) -th pixel column 20b and the (k + m) -th pixel Each of the columns 20b is selected.
  • m the degree of unevenness of the sample S
  • the image acquisition device M obtains in-focus information on a plurality of locations of the sample S before imaging the sample S. Obtain a focus map in advance.
  • the image acquisition device M sets the image acquisition region P so that the entire sample S is included based on the macro image of the sample S acquired by the macro image acquisition device M1.
  • the image acquisition area is set, for example, as shown in FIG. 13, a plurality of focus information acquisition positions Q that are spaced at equal intervals are set in the image acquisition area P in a grid pattern.
  • the interval between the image acquisition regions P is appropriately set according to the size of the sample S and the like.
  • the interval between the image acquisition regions P may not be equal and may be set at random.
  • the focus calculation unit 37 uses, for example, a contrast distribution method as a method for calculating the focus information.
  • a contrast distribution method as a method for calculating the focus information.
  • the visual field V of the objective lens 15 is set in the vicinity of the focus information acquisition position Q.
  • the stage 1 is driven by the stage drive unit 34, and the visual field V of the objective lens 15 is moved toward the focus information acquisition position Q at a constant speed.
  • the focal point calculation unit 37 acquires the contrast information of the image data from the plurality of pixel columns 20b of the second imaging device 20.
  • the contrast value of the image data from the first pixel column 20 b to the n-th pixel column 20 b in the second imaging device 20 is illustrated, and the pixel in the i-th column.
  • the contrast value of the image data in the column 20b is a peak value.
  • the in-focus calculation unit 37 generates in-focus information assuming that the focus position of the objective lens 15 is the in-focus position when the predetermined portion Sa of the sample S is exposed in the i-th pixel row 20b.
  • the contrast value may be a contrast value in a specific pixel among the pixels included in each pixel column 20b, or an average value of contrast values of all or a part of the pixels included in each pixel column 20b. May be.
  • the field of view V of the objective lens 15 may be set so as to include the focus information acquisition position Q.
  • the stage 1 is not driven by the stage driving unit 34, and the second imaging device 20 acquires the second image while the objective lens driving unit 35 moves the focal position of the objective lens 15 by the focal depth. I do.
  • the in-focus calculation unit 37 generates in-focus information assuming that the focus position of the objective lens 15 is the in-focus position when the image data having the largest contrast value is acquired among the acquired image data.
  • the image generation unit 38 is a part that combines the acquired images to generate a virtual slide image.
  • the image generation unit 38 sequentially receives the first image output from the first imaging device 18, that is, the image of each divided region 40, and synthesizes them to synthesize the entire image of the sample S. Then, an image having a lower resolution than this is created based on the composite image, and the high resolution image and the low resolution image are associated with each other and stored in the virtual slide image storage unit 39.
  • an image acquired by the macro image acquisition device M1 may be further associated.
  • the virtual slide image may be stored as a single image, or may be stored as a plurality of divided images.
  • the image evaluation unit 41 is a part that evaluates the first image acquired by the first imaging device 18.
  • the image acquisition device M calculates the focal point information using the second image acquired in the first incident area 24A
  • the image evaluation unit 41 performs the first evaluation based on the focal point information.
  • the contrast value of the first image acquired by the imaging device 18 is acquired.
  • the image evaluation unit 41 instructs the image data read from the pixel row 20b belonging to the first incident area 24A to be used for analysis.
  • the instruction information is output to the in-focus calculation unit 37.
  • the image evaluation unit 41 uses the image data read from the pixel row 20b belonging to the second incident area 24B for analysis.
  • the instruction information to be instructed is output to the in-focus calculation unit 37.
  • the focal point information is calculated using the second image acquired by the image acquisition device M in the first incident region 24A, and the sample S in the divided region 40 to be imaged next.
  • the dynamic prefocus is performed in which the in-focus information is acquired immediately before the image capturing by the first image capturing device 18.
  • the field of view V of the objective lens 15 moves along one imaging line Ln (step S11).
  • the predetermined portion Sa of the sample S in the field of view V of the objective lens 15 is formed so that the image Sb of the light image from the predetermined portion Sa in the sample S is exposed in each pixel row 20b of the second imaging device 20. Is synchronized with the rolling readout of the second imaging device 20 (step S12).
  • the focal point information in the divided region 40 is calculated based on the contrast value of the image data acquired by the pixel row 20b corresponding to the front pin and the rear pin (step S13), and the objective lens 15 is based on the calculated focal point information. Is adjusted, and the divided region 40 is imaged (step S14). Thereafter, it is determined whether or not the calculation of the focal point information has been completed for the desired imaging line Ln (step S15). If the acquisition of the focal point information has not been completed, the next imaging line Ln is determined. The field of view V of the objective lens 15 is moved (step S16), and the processes of steps S11 to S15 are repeatedly executed.
  • the image evaluation unit 41 evaluates that the contrast value of the first image captured by the first imaging device 18 is less than a predetermined threshold value
  • the second incident is performed. Processing is switched so that image data read from the pixel row 20b belonging to the region 24B is used for analysis, and a focus map of the sample S is created before the sample S is imaged.
  • the visual field V of the objective lens 15 moves along one imaging line Ln (step S21).
  • the predetermined portion Sa of the sample S in the field of view V of the objective lens 15 is formed so that the image Sb of the light image from the predetermined portion Sa in the sample S is exposed in each pixel row 20b of the second imaging device 20. Is synchronized with the rolling readout of the second imaging device 20 (step S22). Then, focus information at the focus information acquisition position Q is calculated based on the contrast value peak of the image data acquired at each pixel row 20b (step S23).
  • step S24 it is determined whether or not the calculation of the focal point information has been completed for the desired imaging line Ln (step S24), and the acquisition of the focal point information has not been completed.
  • the visual field V of the objective lens 15 moves to the next imaging line Ln (step S25), and the processes of steps S21 to S24 are repeatedly executed.
  • a focus map is created based on the in-focus information at each focus information acquisition position Q (step S26).
  • the optical path length difference of the second optical image is formed by the arrangement of the optical path difference generating member 21 without branching the light in the second optical path L2 for focus control. it can. Therefore, the amount of light to the second optical path L2 necessary for obtaining the focal position information is suppressed, and the amount of light when the first imaging device 18 performs imaging can be secured. Further, in the image acquisition device M, due to the arrangement of the optical path difference generation member 21, a first incident region 24A where the second optical image in which the optical path difference has occurred is incident on the imaging surface 20a of the second imaging device 20, and A second incident region 24B on which a second light image that does not cause an optical path difference is formed.
  • the in-focus calculation unit 37 can select which of the second image incident on the first incident area 24A and the second image incident on the second incident area 24B is used for the analysis.
  • the focal point information can be calculated with high accuracy.
  • the image acquisition device M further includes an image evaluation unit 41 that evaluates the first image acquired by the first imaging device 18.
  • the in-focus calculation unit 37 performs dynamic prefocusing by analyzing the second image acquired in the first incident region 24A when the contrast value of the first image by the image evaluation unit 41 is equal to or greater than a predetermined threshold.
  • a focus map is created by analyzing the second image acquired in the first incident area 24A. Select which of the second image acquired in the first incident area 24A and the second image acquired in the second incident area 24B is used for the analysis based on the evaluation result of the first image By doing so, the accuracy of the in-focus information can be secured.
  • the image acquisition apparatus M further includes a stage driving unit 34 that moves the visual field position of the objective lens 15 with respect to the sample S, and the optical path difference generating member 21 is accompanied by the movement of the visual field position of the objective lens 15 by the stage driving unit 34.
  • a first member 22 whose thickness continuously changes along the moving direction of the second optical image on the imaging surface 20a of the second imaging device 20, and a second member 23 having a constant thickness.
  • the first member 22 forms a first incident region 24A on the imaging surface 20a
  • the second member 23 forms a second incident region 24B on the imaging surface 20a. Accordingly, the first incident region 24A and the second incident region 24B can be formed on the imaging surface 20a of the second imaging device 20 with a simple configuration of the optical path difference generating member 21.
  • the second imaging device 20 has a plurality of pixel rows 20b and a two-dimensional imaging device capable of rolling readout, and the stage drive unit 34 moves the visual field position of the objective lens 15.
  • a second image is acquired by performing rolling readout of each pixel row 20b in synchronization. Since the optical path difference generating member 21 is arranged in the second optical path L2, the image data from each pixel row 20b is equivalent to the case where the focal position of the objective lens 15 is changed in the same part of the sample S. Contrast information is included. Therefore, the in-focus information can be calculated quickly and accurately based on the contrast information. Even when the focus map is created, it is not necessary to move the focal position of the objective lens 15, so that the in-focus information at the focal information acquisition position Q can be quickly calculated.
  • the optical path difference generating member is formed by combining the first member 22 whose thickness continuously changes along the moving direction of the second optical image and the second member 23 having a constant thickness.
  • the optical path difference generating member has a first incident area 24 ⁇ / b> A where the second optical image in which the optical path difference has occurred is incident on the imaging surface 20 a of the second imaging device 20, and the optical path difference is Other forms may be used as long as the second incident region 24B into which the second optical image that does not occur is incident is formed.
  • an optical path difference generating member 51 composed only of the first member 22 may be used.
  • the first incident region 24A corresponding to the first member 22 is formed on the imaging surface 20a of the second imaging device 20 to generate the optical path difference.
  • a second incident region 24B is formed corresponding to a portion where the member 51 is not disposed.
  • the first incident region 24A is provided in the upper half region of the imaging surface 20a along the moving direction (Z direction) of the second optical image on the imaging surface 20a accompanying the scanning of the sample S.
  • the second incident region 24B is formed in the lower half region, but the positions where the first incident region 24A and the second incident region 24B are formed on the imaging surface 20a are not limited to this.
  • a first member 62 having a prism shape with a right-angled cross section and a flat plate-like second member 63 are combined in the longitudinal direction of the pixel row 20b. May be. In this case, as shown in FIG.
  • the first incident region 24A is formed in the left half region of the imaging surface 20a
  • the second incident region 24B is formed in the right half region of the imaging surface 20a.
  • Operation control part operation control means
  • 37 In-focus calculation unit in-focus calculation means
  • 40 Image evaluation unit image evaluation means
  • L1 First optical path L2 Second optical path
  • M Image acquisition device M1 Macro image acquisition device M2 ... micro image acquisition device, S ... sample, Sa ... predetermined site, V ... view of objective lens .

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

 画像取得装置Mでは、光路差生成部材21により、第2の光路L2での光の分岐を行わずに第2の光像の光路長差を形成できる。したがって、焦点位置の情報を得るために必要な第2の光路L2への光量が抑えられ、第1の撮像装置18で撮像を行う際の光量を確保できる。また、画像取得装置Mでは、光路差生成部材21により、第2の撮像装置20の撮像面20aに、光路差が生じた第2の光像が入射する第1の入射領域24Aと、光路差が生じない第2の光像が入射する第2の入射領域24Bとが形成される。これにより、合焦点算出部37において、合焦点情報の解析に用いる第2の画像を状況に応じて選択することが可能となり、合焦点情報を精度良く算出できる。

Description

画像取得装置及び画像取得装置のフォーカス方法
 本発明は、画像取得装置及び画像取得装置のフォーカス方法に関する。
 従来の画像取得装置として、例えば特許文献1に記載の装置がある。この装置では、被検物からの光をハーフプリズムで分割し、CCDエリアセンサ等の2次元撮像素子からなる光電変換素子で受光する。光電変換素子の制御回路は、受光面を2次元的に走査する2つの走査領域を任意に設定可能な走査領域設定部を有している。そして、走査領域設定部によって設定された2つの走査領域で受光した光の合焦ずれ信号に基づいて合焦制御を実行する。
特開平8-320430号公報
 上述した従来の装置では、ハーフプリズムを用いて被検物からの光を分割している。このため、光電変換素子での光量の確保が難しく、試料の焦点位置の検出精度が低下してしまうおそれがある。また、焦点位置の検出用の光の光量を増大させると、被検物の撮像用の光の光量が減少することとなり、撮像の際の光量の確保が困難となるおそれがある。
 本発明は、上記課題の解決のためになされたものであり、撮像の際の光量を確保でき、かつ試料の焦点位置を精度良く検出できる画像取得装置及びそのフォーカス方法を提供することを目的とする。
 上記課題の解決のため、本発明に係る画像取得装置は、試料が載置されるステージと、試料に向けて光を照射する光源と、ステージ上の試料と対峙するように配置された対物レンズ、及び試料の光像を画像取得用の第1の光路及び焦点制御用の第2の光路に分岐する光分岐手段を含む導光光学系と、第1の光路に分岐された第1の光像による第1の画像を取得する第1の撮像手段と、第2の光路に分岐された第2の光像による第2の画像を取得する第2の撮像手段と、第2の画像を解析し、その解析結果に基づいて試料の合焦点情報を算出する合焦点算出手段と、第2の撮像手段の撮像面の面内方向に沿って第2の光像に光路差を生じさせる光路差生成部材と、を備え、光路差生成部材は、第2の撮像手段の撮像面に、光路差が生じた第2の光像が入射する第1の入射領域と、光路差が生じない第2の光像が入射する第2の入射領域とが形成されるように第2の光路に配置され、合焦点算出手段は、第1の入射領域で取得された第2の画像、及び第2の入射領域で取得された第2の画像のいずれか一方を、解析に用いる第2の画像として選択することを特徴としている。
 この画像取得装置では、光路差生成部材の配置により、焦点制御用の第2の光路での光の分岐を行わずに第2の光像の光路長差を形成できる。したがって、焦点位置の情報を得るために必要な第2の光路への光量が抑えられ、第1の撮像手段で撮像を行う際の光量を確保できる。また、この画像取得装置では、光路差生成部材の配置により、第2の撮像手段の撮像面に、光路差が生じた第2の光像が入射する第1の入射領域と、光路差が生じない第2の光像が入射する第2の入射領域とが形成される。これにより、合焦点算出手段において、第1の入射領域に入射した第2の画像及び第2の入射領域に入射した第2の画像のいずれを解析に用いるかを選択することが可能となり、例えば試料の凹凸の程度等に応じて最適な合焦点情報の算出方式を選択できるので、合焦点情報を精度良く算出できる。
 また、光路差生成部材及び第2の撮像手段は、試料における第1の撮像手段での撮像位置からの光が第2の入射領域に入射するように第2の光路に配置されていることが好ましい。この場合、合焦点算出手段による合焦点算出の算出処理を簡単化できる。
 また、第1の撮像手段で取得された第1の画像を評価する画像評価手段を更に備え、合焦点算出手段は、画像評価手段による第1の画像の評価結果に基づいて、第1の入射領域で取得された第2の画像、及び第2の入射領域で取得された第2の画像のいずれか一方を選択することが好ましい。合焦点情報の算出方式によっては、例えば試料の凹凸の程度等に起因して合焦点情報の算出の精度が低下する場合が考えられる。こうした場合に、第1の画像の評価結果に基づいて、第1の入射領域で取得された第2の画像、及び第2の入射領域で取得された第2の画像のいずれを解析に用いるかを選択することで、合焦点情報の精度を担保できる。
 また、試料に対する対物レンズの視野位置を移動させる視野駆動手段を更に備え、光路差生成部材は、視野駆動手段による対物レンズの視野位置の移動に伴う第2の撮像手段の撮像面上での第2の光像の移動方向に沿って連続的に厚さが変化する第1の部分と、厚さが一定の第2の部分とを有し、第1の部分が撮像面に第1の入射領域を形成し、第2の部分が撮像面に第2の入射領域を形成することが好ましい。この場合、簡単な光路差生成部材の構成で、第2の撮像手段の撮像面に第1の入射領域及び第2の入射領域を形成できる。
 また、第2の撮像手段は、複数の画素列を有すると共にローリング読み出しが可能な二次元撮像素子を有し、視野駆動手段による対物レンズの視野位置の移動と同期して各画素列のローリング読み出しを行うことによって第2の画像を取得することが好ましい。この場合、第2の光路に光路差生成部材が配置されていることにより、各画素列からの画像データには、試料の同一部位において対物レンズの焦点位置が変更されたときと等価のコントラスト情報が含まれる。したがって、当該コントラスト情報に基づいて合焦点情報を迅速かつ精度良く算出できる。
 また、合焦点算出手段は、第1の入射領域で取得された第2の画像を解析に用いる場合には、二次元撮像素子の各画素列のうち、少なくとも2つの画素列で読み出された画像データのコントラスト値の差分に基づいて、試料の合焦点情報を算出することが好ましい。
 また、合焦点算出手段は、第2の入射領域で取得された第2の画像を解析に用いる場合には、算出した合焦点情報に基づいてフォーカスマップを作成することが好ましい。この場合、フォーカスマップを精度良く作成することができる。
 また、本発明に係る画像取得装置のフォーカス方法は、試料が載置されるステージと、試料に向けて光を照射する光源と、ステージ上の試料と対峙するように配置された対物レンズ、及び試料の光像を画像取得用の第1の光路及び焦点制御用の第2の光路に分岐する光分岐手段を含む導光光学系と、第1の光路に分岐された第1の光像による第1の画像を取得する第1の撮像手段と、第2の光路に分岐された第2の光像による第2の画像を取得する第2の撮像手段と、第2の画像を解析し、その解析結果に基づいて試料の合焦点情報を算出する合焦点算出手段と、第2の撮像手段の撮像面の面内方向に沿って第2の光像に光路差を生じさせる光路差生成部材と、を備えた画像取得装置のフォーカス方法であって、第2の撮像手段の撮像面に、光路差が生じた第2の光像が入射する第1の入射領域と、光路差が生じない第2の光像が入射する第2の入射領域とが形成されるように、光路差生成部材を第2の光路に配置し、第1の入射領域で取得された第2の画像、及び第2の入射領域で取得された前記第2の画像のいずれか一方を、解析に用いる第2の画像として合焦点算出手段に選択させることを特徴としている。
 この画像取得装置のフォーカス方法では、光路差生成部材の配置により、焦点制御用の第2の光路での光の分岐を行わずに第2の光像の光路長差を形成できる。したがって、焦点位置の情報を得るために必要な第2の光路への光量が抑えられ、第1の撮像手段で撮像を行う際の光量を確保できる。また、この画像取得装置のフォーカス方法では、光路差生成部材の配置により、第2の撮像手段の撮像面に、光路差が生じた第2の光像が入射する第1の入射領域と、光路差が生じない第2の光像が入射する第2の入射領域とを形成する。これにより、合焦点算出手段において、第1の入射領域に入射した第2の画像及び第2の入射領域に入射した第2の画像のいずれを解析に用いるかを選択することが可能となり、例えば試料の凹凸の程度等に応じて最適な合焦点情報の算出方式を選択できるので、合焦点情報を精度良く算出できる。
 本発明によれば、撮像の際の光量を確保でき、かつ試料の焦点位置を精度良く検出できる。
本発明に係る画像取得装置を構成するマクロ画像取得装置の一実施形態を示す図である。 本発明に係る画像取得装置を構成するミクロ画像取得装置の一実施形態を示す図である。 第2の撮像装置の一例を示す図である。 光路差生成部材及び第2の撮像装置の組み合わせの一例を示す図である。 画像取得装置の機能的な構成要素を示すブロック図である。 試料に対する対物レンズの視野のスキャンの一例を示す図である。 対物レンズの視野内での試料の所定部位の移動と第2の撮像装置のローリング読み出しとの同期の様子を示す図であり、(a)は対物レンズの視野と分割領域との位置関係、(b)各画素列に対する試料の所定部位と撮像素子の露光及び読み出しのタイミングを示す。 図7の後続の状態を示す図である。 図8の後続の状態を示す図である。 試料の表面までの距離が対物レンズの焦点距離に一致している場合のコントラスト値の解析結果を示す図である。 試料の表面までの距離が対物レンズの焦点距離よりも長い場合のコントラスト値の解析結果を示す図である。 試料の表面までの距離が対物レンズの焦点距離よりも短い場合のコントラスト値の解析結果を示す図である。 フォーカスマップの一例を示す図である。 対物レンズの視野と焦点情報取得位置との関係の一例を示す図である。 合焦点算出部で処理されるコントラスト情報の一例を示す図である。 対物レンズの視野と焦点情報取得位置との関係の他の例を示す図である。 図1及び図2に示した画像取得装置において、ダイナミックプレフォーカスを行う場合の動作を示すフローチャートである。 図1及び図2に示した画像取得装置において、フォーカスマップを作成する場合の動作を示すフローチャートである。 光路差生成部材の変形例を示す図である。 光路差生成部材の別の変形例を示す図である。
 以下、図面を参照しながら、本発明に係る画像取得装置及び画像取得装置のフォーカス方法の好適な実施形態について詳細に説明する。
 図1は、本発明に係る画像取得装置を構成するマクロ画像取得装置の一実施形態を示す図である。また、図2は、本発明に係る画像取得装置を構成するミクロ画像取得装置の一実施形態を示す図である。図1及び図2に示すように、画像取得装置Mは、試料Sのマクロ画像を取得するマクロ画像取得装置M1と、試料Sのミクロ画像を取得するミクロ画像取得装置M2とによって構成されている。画像取得装置Mは、マクロ画像取得装置M1で取得したマクロ画像に対して例えばライン状の複数の分割領域40(図6参照)を設定し、各分割領域40をミクロ画像取得装置M2で高倍率に取得して合成することにより、デジタル画像であるバーチャルスライド画像を生成する装置である。
 マクロ画像取得装置M1は、図1に示すように、試料Sが載置されるステージ1を備えている。ステージ1は、例えばステッピングモータ(パルスモータ)或いはピエゾアクチュエータなどのモータやアクチュエータによって水平方向に駆動するXYステージである。画像取得装置Mで観察する試料Sは、例えば細胞などの生体サンプルであり、スライドガラスに密封された状態でステージ1に載置される。このステージ1をXY面内で駆動させることにより、試料Sに対する撮像位置を移動させることができる。
 ステージ1は、マクロ画像取得装置M1とミクロ画像取得装置M2との間を往復可能となっており、両装置間で試料Sを搬送する機能を有している。なお、マクロ画像取得においては、試料Sの全体画像を1度の撮像で取得してもよく、試料Sを複数の領域に分割して撮像してもよい。また、ステージ1は、マクロ画像取得装置M1及びミクロ画像取得装置M2の双方にそれぞれ設けておいてもよい。
 ステージ1の底面側には、試料Sに向けて光を照射する光源2と、光源2からの光を試料Sに集光する集光レンズ3とが配置されている。光源2は、試料Sに向けて斜めに光を照射するように配置されていてもよい。また、ステージ1の上面側には、試料Sからの光像を導光する導光光学系4と、試料Sの光像を撮像する撮像装置5とが配置されている。導光光学系4は、試料Sからの光像を撮像装置5の撮像面に結像させる結像レンズ6を有している。また、撮像装置5は、例えば2次元画像を取得可能なエリアセンサである。撮像装置5は、導光光学系4を経て撮像面に入射した試料Sの光像の全体画像を取得し、後述のバーチャルスライド画像格納部39に格納する。
 ミクロ画像取得装置M2は、図2に示すように、ステージ1の底面側にマクロ画像取得装置M1と同様の光源12及び集光レンズ13を有している。また、ステージ1の上面側には、試料Sからの光像を導光する導光光学系14が配置されている。光源12からの光を試料Sに照射させる光学系には、試料Sに励起光を照射するための励起光照射光学系や試料Sの暗視野画像を取得するための暗視野照明光学系を採用してもよい。
 導光光学系4は、試料Sと対峙して配置された対物レンズ15と、対物レンズ15の後段に配置されたビームスプリッタ(光分岐手段)16とを有している。対物レンズ15には、対物レンズ15の光軸方向に沿ったZ方向に対物レンズ15を駆動するステッピングモータ(パルスモータ)或いはピエゾアクチュエータなどのモータやアクチュエータが設けられている。これらの駆動手段によって対物レンズ15のZ方向の位置を変えることにより、試料Sの画像取得における撮像の焦点位置が調整可能になっている。なお、焦点位置の調整は、ステージ1のZ方向の位置を変えることで実施してもよく、対物レンズ15及びステージ1の双方のZ方向の位置を変えることによって実施してもよい。いずれの形態においても、対物レンズ15とステージ1との間隔を調整できる。
 ビームスプリッタ16は、試料Sの光像を画像取得用の第1の光路L1と焦点制御用の第2の光路L2とに分岐する部分である。このビームスプリッタ16は、光源12からの光軸に対しておよそ45度の角度で配置されており、図2において、ビームスプリッタ16を通過する光路が第1の光路L1となっており、ビームスプリッタ16で反射する光路が第2の光路となっている。
 第1の光路L1には、ビームスプリッタ16を通過した試料Sの光像(第1の光像)を結像させる結像レンズ17と、結像レンズ17の結像位置に撮像面を配置した第1の撮像装置(第1の撮像手段)18とが配置されている。第1の撮像装置18は、試料Sの第1の光像による1次元画像(第1の画像)を取得可能な装置であり、例えばTDI(Time Delay Integration)駆動が可能な2次元CCDイメージセンサやラインセンサなどのラインスキャンイメージセンサが用いられる。また、ステージ1を一定の速度で制御しながら、試料Sの画像を順次取得する方式であれば、第1の撮像装置18は、CMOSセンサやCCDセンサなどの2次元画像を取得可能な装置であってもよい。第1の撮像装置18で撮像された第1の画像は、レーンバッファなどの一時保存メモリに順次保存された後、圧縮されて後述の画像生成部38に出力される。
 一方、第2の光路L2には、ビームスプリッタ16で反射した試料の光像(第2の光像)を縮小する視野調整レンズ19と、第2の撮像装置(第2の撮像手段)20とが配置されている。また、第2の撮像装置20の前段には、第2の光像に光路差を生じさせる光路差生成部材21が配置されている。視野調整レンズ19は、第2の光像が第1の光像と同程度の大きさで第2の撮像装置20に結像するように構成されていることが好ましい。
 第2の撮像装置20は、試料Sの第2の光像による2次元画像(第2の画像)を取得可能な装置である。第2の撮像装置20は、複数の画素列を有すると共にローリング読み出しが可能な二次元撮像素子を有している。このような二次元撮像素子としては、例えばCMOSイメージセンサが挙げられる。第2の撮像装置20の撮像面20aは、第2の光路L2に直交するXZ面と略一致するように配置されている。第2の撮像装置20の撮像面20aには、図3(a)に示すように、読み出し方向に垂直な方向に複数の画素が配列されてなる画素列20bが読み出し方向に複数配列されている。
 第2の撮像装置20では、図3(b)に示すように、駆動クロックの駆動周期に基づいて、リセット信号、読み出し開始信号、及び読み出し終了信号が出力されることで、画素列20b毎に露光及び読み出しが制御される。一の画素列20bの露光期間は、リセット信号に伴う電荷の排出から読み出し開始信号に伴う電荷の読み出しまでの期間である。また、一の画素列20bの読み出し期間は、読み出し開始信号に伴う電荷の読み出し開始から読み出し終了信号に伴う電荷の読み出し終了までの期間である。なお、次の画素列に対する読み出し開始信号を読み出し終了信号として用いることもできる。
 ローリング読み出しでは、画素列20b毎に出力する読み出し開始信号が所定の時間差で順次出力される。ローリング読み出しにおける読み出し速度は、各画素列20bを読み出すための読み出し開始信号の時間間隔によって制御される。読み出し開始信号の時間間隔を短くすると読み出し速度は早くなり、読み出し開始信号の時間間隔を長くすると読み出し速度は遅くなる。隣接する画素列20b,20b間での読み出し間隔の調整は、例えば駆動クロックの周波数の調整、読み出し期間中の遅延期間の設定、読み出し開始信号を規定するクロック数の変更といった手法によって実施できる。
 光路差生成部材21は、撮像面20aの面内方向に沿って第2の光像に光路差を生じさせるガラス部材である。図4(a)に示す例では、光路差生成部材21は、断面直角三角形のプリズム状をなす第1の部材22と、平板状の第2の部材23とを組み合わせて構成されている。第1の部材22は、撮像面20aの面内方向、すなわち、試料Sの走査に伴う撮像面20a上での第2の光像の移動方向(Z方向)に沿って連続的に厚さが増加するように、撮像面20aの一端側領域(上半分領域)に対応して配置されている。また、第2の部材23、厚さが一定となっており、撮像面20aの他端側領域(下半分領域)に対応して配置されている。
 光路差生成部材21及び第2の撮像装置20は、試料Sにおける第1の撮像装置18での撮像予定位置(これから撮像される位置)からの光が撮像面20aの一端側領域(上半分領域)に入射するように配置されている。また、光路差生成部材21及び第2の撮像装置20は、試料Sにおける第1の撮像装置18での撮像位置からの光が撮像面20aの他端側領域(下半分領域)に入射するように配置されている。
 このような光路差生成部材21の配置により、第2の撮像装置20の撮像面20aには、図4(b)に示すように、光路差が生じた第2の光像が入射する第1の入射領域24Aと、光路差が生じない第2の光像が入射する第2の入射領域24Bとが形成される。第1の入射領域24Aでは、撮像面20aに入射する第2の光像は、上端側から中央側に向かうほど光路が長くなる。第2の入射領域24Bでは、撮像面20aに入射する第2の光像は、いずれの位置においても光路が同一となる。なお、第1の部材22及び第2の部材23は、第2の撮像装置20と対向する面が第2の撮像装置の撮像面20aと平行となるように配置されることが好ましい。これにより、第2の撮像装置20と対向する面による光の屈折を低減でき、第2の撮像装置20で受光する光量を確保することができる。
 光路差生成部材21において、第2の部材23の厚みは、フォーカス中心に対応する画素列20bの位置での第1の部材22の厚みと等しくなっていることが好適である。これにより、第2の入射領域24Bに入射する第2の光像の光路長が、第1の撮像装置18に入射する第1の光像の光路長と等しくなるので、合焦点算出部37での合焦点情報の算出処理を簡単化できる。
 図5は、画像取得装置の機能的な構成要素を示すブロック図である。同図に示すように、画像取得装置Mは、CPU、メモリ、通信インタフェイス、ハードディスクといった格納部、キーボードなどの操作部31、モニタ32等を備えたコンピュータシステムを備えている。また、画像取得装置Mは、制御部33の機能的な構成要素として、ステージ駆動部34と、対物レンズ駆動部35と、動作制御部36と、合焦点算出部37と、画像生成部38と、バーチャルスライド画像格納部39と、画像評価部41と、とを備えている。
 ステージ駆動部34は、試料Sに対する対物レンズ15の視野位置を移動させる視野駆動手段として機能する部分である。ステージ駆動部34は、例えばステッピングモータ(パルスモータ)或いはピエゾアクチュエータといったモータやアクチュエータによって構成されている。ステージ駆動部34は、動作制御部36による制御に基づいて、ステージ1を対物レンズ15の光軸の直交面に対して所定の角度(例えば90度)を有する面についてXY方向に移動させる。これにより、ステージ2に固定された試料Sが対物レンズ15の光軸に対して移動し、試料Sに対する対物レンズ15の視野位置が移動する。
 より具体的には、ステージ駆動部34は、動作制御部36による制御に基づき、試料Sが載置されたステージ1を所定の速度で走査させる。このステージ1の走査により、第1の撮像装置18及び第2の撮像装置20での試料Sの撮像視野が相対的に順次移動する。試料Sの全体を撮像するために、画像取得装置Mでは、動作制御部36が複数の分割領域40から構成される撮像ラインLn(nは自然数)に沿ったスキャン方向に試料Sに対する対物レンズ15の視野位置を移動させるように制御する。隣接する撮像ラインLn間での試料Sに対する対物レンズ15の視野位置の移動は、例えば図6に示すように、隣り合う撮像ラインLn間でスキャン方向が同方向となる一方向スキャンが採用される。
 また、画像取得の間のステージ1の走査速度は一定であるが、実際には走査の開始直後にステージ1の振動等の影響によって走査速度が不安定な期間が存在する。このため、分割領域40よりも長い走査幅を設定し、ステージ1が加速する加速期間、ステージ1の走査速度が安定化するまでの安定化期間、及びステージ1が減速する減速期間のそれぞれが、分割領域40よりも外側を走査しているときに生じるようにすることが好ましい。これにより、ステージ1の走査速度が一定となる一定速度期間に合わせて画像取得を行うことが可能となる。なお、安定化期間中に撮像を開始し、画像取得後に安定化期間中に取得したデータ部分を削除するようにしてもよい。このような手法は、データの空読みが必要な撮像装置を用いる場合に好適である。
 対物レンズ駆動部35は、ステージ駆動部34と同様に、例えばステッピングモータ(パルスモータ)或いはピエゾアクチュエータといったモータやアクチュエータによって構成されている。対物レンズ駆動部35は、動作制御部36による制御に基づいて、対物レンズ15の光軸に沿ったZ方向に対物レンズ15を移動させる。これにより、試料Sに対する対物レンズ15の焦点位置が移動する。
 なお、対物レンズ駆動部35は、合焦点算出部37による焦点位置の解析中は対物レンズ15の駆動は行わず、また、次の焦点位置の解析が開始されるまで、対物レンズ15をZ方向に沿って一方向にのみ駆動させることが好ましい。この場合、試料Sの走査中は、焦点位置の解析期間と、解析結果に基づく対物レンズ駆動期間とが交互に生じることとなる。焦点位置の解析中に対物レンズ15と試料Sとの位置関係を変化させないことで、焦点位置の解析精度を担保できる。
 動作制御部36は、第2の撮像装置20及びステージ駆動部34の動作を制御する部分である。より具体的には、動作制御部36は、試料Sにおける所定部位の光像が第2の撮像装置20の各画素列20bで露光されるように、ステージ駆動部34による対物レンズ15の視野V内での試料Sの所定部位の移動と第2の撮像装置20のローリング読み出しとを同期させる。
 動作制御部36は、図7(a)に示すように、対物レンズ15の視野Vが一の分割領域40を移動する際、対物レンズ15の視野V内での試料Sの移動が一定速度となるようにステージ駆動部34を制御する。また、動作制御部36は、図7(b)に示すように、第2の撮像装置20の撮像面20aにおける試料Sの光像の結像Sbの移動方向と、撮像面20aの各画素列20bの読み出し方向とが一致するようにステージ駆動部34及び第2の撮像装置20を制御する。なお、ローリング読出しの読出し速度を可変に設定できる撮像素子を用いる場合、動作制御部36は、対物レンズ15の視野V内での試料Sの移動速度に基づいて、ローリング読出しの読出し速度を変更してもよい。
 また、各画素列20bにおける露光時間は、少なくとも試料Sの所定部位Saのスキャン方向における幅及び対物レンズ15の視野V内での試料Sの所定部位Saの移動速度に基づいて設定される。より好ましくは、対物レンズ15及び視野調整レンズ19の倍率も考慮する。これにより、各画素列20bにより、試料Sの所定部位Saの光像を露光することができる。
 時間T1において、図7(b)に示すように、第2の撮像装置20の撮像面20aにおける試料Sの所定部位Saからの光の結像Sbが撮像領域の第1列目の画素列20bに到達すると、この第1列目の画素列20bの露光が開始される。時間T2に移ると、図8(a)に示すように、対物レンズ15の視野V内での試料Sの所定部位Saの位置が移動する。このとき、図8(b)に示すように、試料Sの所定部位Saからの光の結像Sbが撮像領域の第2列目の画素列20bに到達し、第2列目の画素列20bの露光が開始される。また、試料Sの所定部位Saからの光の結像Sbが第1列目の画素列20bを通過するタイミングで、第1列目の画素列20bの読み出しが開始される。
 さらに、時間T3に移ると、図9(a)に示すように、対物レンズ15の視野V内での試料Sの所定部位Saの位置がスキャン方向に更に移動する。このとき、図9(b)に示すように、試料Sの所定部位Saからの光の結像Sbが撮像領域の第3列目の画素列20bに到達し、第3列目の画素列20bの露光が開始される。また、試料Sの所定部位Saからの光の結像Sbが第2列目の画素列20bを通過するタイミングで、第2列目の画素列20bの読み出しが開始される。さらに、第2列目の画素列20bの読み出しと同時に第1列目の画素列20bの読み出しが終了する。
 以下、所定の画素列数に到達するまで、同様の手順で対物レンズ15の視野V内での試料Sの所定部位Saの移動と、画素列20bでのローリング読み出しとが実施される。各画素列20bから読み出される画像データは、いずれも試料Sの同一部位についての画像データとなる。また、第2の光路L2に光路差生成部材21が配置されていることにより、各画素列20bから読み出される画像データは、それぞれ試料Sの同一部位について対物レンズ15の焦点位置が変更されたときと等価のコントラスト情報が含まれる。各画素列20bで読み出された画像データは、合焦点算出部37に順次出力される。
 対物レンズ駆動部35が対物レンズ15を含む導光光学系14をXY方向に移動させることが可能な場合、動作制御部36は、試料Sにおける所定部位の光像が第2の撮像装置20の各画素列20bで露光されるように、対物レンズ駆動部35による対物レンズ15の視野V内での試料Sの所定部位の移動と第2の撮像装置20のローリング読み出しとを同期させてもよい。この場合、対物レンズ駆動部35は、試料Sに対する対物レンズ15の視野位置を移動させる視野駆動手段として機能する。
 合焦点算出部37は、第2の撮像装置20で取得された第2の画像を解析し、その解析結果に基づいて試料Sの合焦点情報を算出する部分である。合焦点算出部37は、画像評価部41からの指示情報に基づき、撮像面20aにおける第1の入射領域24Aに属する画素列20bから読み出された画像データ、及び第2の入射領域24Bに属する画素列20bから読み出された画像データのいずれか一方を、解析に用いる第2の画像として選択する。
 第1の入射領域24Aに属する画素列20bから読み出された画像データを解析に用いる場合、画像取得装置Mでは、次に撮像される分割領域40における試料Sの合焦点情報の取得を第1の撮像装置18による撮像の直前に行うダイナミックプレフォーカスを実行する。この場合、合焦点算出部37では、合焦点情報の算出方式として例えば前ピン・後ピン方式が用いられる。
 前ピン・後ピン方式を用いる場合、合焦点算出部37は、第2の撮像装置20の各画素列20bのうち、少なくとも2つの画素列20bの画素列20bを選択する。上述したように、第2の光路L2には、試料Sの走査に伴う撮像面20a上での第2の光像の移動方向(Z方向)に沿って連続的に厚さが増加するように光路差生成部材21が配置されており、第2の撮像装置20における撮像面20aの第1の入射領域24Aには、光路差が生じた第2の光像が入射する。したがって、第1の入射領域24Aでは、選択する2つの画素列20bの位置に基づいて、第1の撮像装置18に入射する第1の光像よりも前に焦点が合った光像(前ピン)と、後に焦点が合った光像(後ピン)とを取得できる。合焦点算出部37は。選択された画素列20bで読み出された画像データのコントラスト値同士の差分を求める。
 図10に示すように、試料Sの表面に対して対物レンズ15の焦点位置が合っている場合、前ピンの画像コントラスト値と後ピンの画像コントラスト値とが略一致し、これらの差分値はほぼゼロとなる。一方、図11に示すように、試料Sの表面までの距離が対物レンズ15の焦点距離よりも長い場合、前ピンの画像コントラスト値よりも後ピンの画像コントラスト値の方が大きくなり、これらの差分値はプラスとなる。この場合、合焦点算出部37は、対物レンズ駆動部35に対し、対物レンズ15を試料Sに近づける向きに駆動する旨の指示情報を出力する。また、図12に示すように、試料Sの表面までの距離が対物レンズ15の焦点距離よりも短い場合、前ピンの画像コントラスト値よりも後ピンの画像コントラスト値の方が小さくなり、これらの差分値はマイナスとなる。この場合、合焦点算出部37は、対物レンズ駆動部35に対し、対物レンズ15を試料Sに遠ざける向きに駆動する旨の指示情報を出力する。
 前ピン・後ピン方式を用いる場合、合焦点算出部37では、フォーカス中心に対応する画素列20bを挟んで対称となるように、前ピンに相当する画素列20bと後ピンに相当する画素列20bとを選択する。フォーカス中心に対応する画素列20bとは、第1の撮像装置18で撮像される試料Sの光像の光路長と一致する光路長で第2の光路L2及び光路差生成部材21を通った試料Sの光像が入射する画素列20bを指す。合焦点算出部37は、例えばフォーカス中心に対応する画素列20bが第k列目の画素列20bである場合、第(k-m)列目の画素列20bと第(k+m)列目の画素列20bとをそれぞれ選択する。試料Sの凹凸の度合いに応じてmを設定することで、合焦点情報の精度を向上できる。
 第2の入射領域24Bに属する画素列20bから読み出された画像データを解析に用いる場合、画像取得装置Mでは、試料Sの撮像を行う前に、試料Sの複数個所についての合焦点情報を予め取得し、フォーカスマップを作成する。この場合、画像取得装置Mでは、マクロ画像取得装置M1によって取得された試料Sのマクロ画像に基づき、試料Sの全体が含まれるように画像取得領域Pを設定する。画像取得領域の設定後、例えば図13に示すように、等間隔で離間する複数の焦点情報取得位置Qを格子状に画像取得領域P内に設定する。画像取得領域Pの間隔は、試料Sの寸法等に応じて適宜設定される。画像取得領域Pの間隔は、等間隔でなくともよく、ランダムに設定してもよい。
 フォーカスマップの作成にあたって、合焦点算出部37では、合焦点情報の算出方式として例えばコントラスト分布方式が用いられる。この場合、例えば図14に示すように、焦点情報取得位置Qの近傍に対物レンズ15の視野Vを設定する。次に、ステージ駆動部34によってステージ1を駆動させ、対物レンズ15の視野Vを焦点情報取得位置Qに向かって一定速度で移動させる。
 コントラスト分布方式を用いる場合、合焦点算出部37は、第2の撮像装置20の複数の画素列20bからの画像データのコントラスト情報を取得する。図15に示す例では、第2の撮像装置20における第1列目の画素列20bから第n列目の画素列20bまでの画像データのコントラスト値が示されており、第i列目の画素列20bにおける画像データのコントラスト値がピーク値となっている。この場合、合焦点算出部37は、第i列目の画素列20bで試料Sの所定部位Saの露光を行ったときの対物レンズ15の焦点位置が合焦点位置であるとして合焦点情報を生成する。なお、コントラスト値は、各画素列20bに含まれる画素のうちの特定の画素におけるコントラスト値を用いてもよく、各画素列20bに含まれる画素の全体又は一部のコントラスト値の平均値を用いてもよい。
 フォーカスマップの作成にあたって、例えば図16に示すように、焦点情報取得位置Qを含むように対物レンズ15の視野Vを設定してもよい。この場合、ステージ駆動部34によるステージ1の駆動は行わず、対物レンズ駆動部35によって対物レンズ15の焦点位置を焦点深度分だけ移動させながら、第2の撮像装置20による第2の画像の取得を行う。この場合、合焦点算出部37は、取得した各画像データのうち、最もコントラスト値が大きい画像データを取得したときの対物レンズ15の焦点位置が合焦点位置であるとして合焦点情報を生成する。
 画像生成部38は、取得した画像を合成してバーチャルスライド画像を生成する部分である。画像生成部38は、第1の撮像装置18から出力される第1の画像、すなわち、各分割領域40の画像を順次受け取り、これらを合成して試料Sの全体の画像を合成する。そして、この合成画像に基づいてこれよりも低い解像度の画像を作成し、高解像度の画像と低解像度の画像とを関連付けてバーチャルスライド画像格納部39に格納する。バーチャルスライド画像格納部39では、マクロ画像取得装置M1で取得した画像も更に関連付けてもよい。バーチャルスライド画像は、1枚の画像として格納してもよく、複数に分割された画像として格納してもよい。
 画像評価部41は、第1の撮像装置18で取得された第1の画像を評価する部分である。画像評価部41は、画像取得装置Mが第1の入射領域24Aで取得された第2の画像を用いて合焦点情報の算出を行っている場合に、当該合焦点情報に基づいて第1の撮像装置18で取得された第1の画像のコントラスト値を取得する。画像評価部41は、第1の画像のコントラスト値が所定の閾値以上である場合には、第1の入射領域24Aに属する画素列20bから読み出された画像データを解析に用いるように指示する指示情報を合焦点算出部37に出力する。また、画像評価部41は、第1の画像のコントラスト値が所定の閾値未満である場合には、第2の入射領域24Bに属する画素列20bから読み出された画像データを解析に用いるように指示する指示情報を合焦点算出部37に出力する。
 続いて、上述した画像取得装置Mにおけるフォーカシング動作について説明する。
 画像取得装置Mでは、通常、画像取得装置Mが第1の入射領域24Aで取得された第2の画像を用いて合焦点情報の算出が行われ、次に撮像される分割領域40における試料Sの合焦点情報の取得を第1の撮像装置18による撮像の直前に行うダイナミックプレフォーカスが実行される。この場合、図17に示すように、ステージ駆動部34によるステージ1の移動が開始すると、一の撮像ラインLnに沿って対物レンズ15の視野Vが移動する(ステップS11)。また、試料Sにおける所定部位Saからの光像の結像Sbが第2の撮像装置20の各画素列20bで露光されるように、対物レンズ15の視野V内での試料Sの所定部位Saの移動と第2の撮像装置20のローリング読み出しとが同期する(ステップS12)。
 そして、前ピン・後ピンに対応する画素列20bで取得した画像データのコントラスト値に基づいて分割領域40における合焦点情報を算出し(ステップS13)、算出した合焦点情報に基づいて対物レンズ15の焦点位置が調整され、分割領域40の撮像が行われる(ステップS14)。その後、所望の撮像ラインLnについて合焦点情報の算出の取得が完了したか否かが判断され(ステップS15)、合焦点情報の算出の取得が完了していない場合には、次の撮像ラインLnに対物レンズ15の視野Vが移動し(ステップS16)、ステップS11~S15の処理が繰り返し実行される。
 また、画像取得装置Mでは、画像評価部41によって、第1の撮像装置18で撮像された第1の画像のコントラスト値が所定の閾値未満であると評価された場合には、第2の入射領域24Bに属する画素列20bから読み出された画像データを解析に用いるように処理の切り替えが行われ、試料Sの撮像を行う前に試料Sのフォーカスマップが作成される。この場合、図18に示すように、ステージ駆動部34によるステージ1の移動が開始すると、一の撮像ラインLnに沿って対物レンズ15の視野Vが移動する(ステップS21)。また、試料Sにおける所定部位Saからの光像の結像Sbが第2の撮像装置20の各画素列20bで露光されるように、対物レンズ15の視野V内での試料Sの所定部位Saの移動と第2の撮像装置20のローリング読み出しとが同期する(ステップS22)。そして、各画素列20bで取得した画像データのコントラスト値のピークに基づいて焦点情報取得位置Qにおける合焦点情報が算出される(ステップS23)。
 合焦点情報の算出がなされた後、所望の撮像ラインLnについて合焦点情報の算出の取得が完了したか否かが判断され(ステップS24)、合焦点情報の算出の取得が完了していない場合には、次の撮像ラインLnに対物レンズ15の視野Vが移動し(ステップS25)、ステップS21~S24の処理が繰り返し実行される。合焦点情報の算出の取得が完了した場合には、各焦点情報取得位置Qにおける合焦点情報に基づき、フォーカスマップが作成される(ステップS26)。
 以上説明したように、画像取得装置Mでは、光路差生成部材21の配置により、焦点制御用の第2の光路L2での光の分岐を行わずに第2の光像の光路長差を形成できる。したがって、焦点位置の情報を得るために必要な第2の光路L2への光量が抑えられ、第1の撮像装置18で撮像を行う際の光量を確保できる。また、画像取得装置Mでは、光路差生成部材21の配置により、第2の撮像装置20の撮像面20aに、光路差が生じた第2の光像が入射する第1の入射領域24Aと、光路差が生じない第2の光像が入射する第2の入射領域24Bとが形成される。これにより、合焦点算出部37において、第1の入射領域24Aに入射した第2の画像及び第2の入射領域24Bに入射した第2の画像のいずれを解析に用いるかを選択することが可能となり、例えば試料Sの凹凸の程度等に応じて最適な合焦点情報の算出方式を選択できるので、合焦点情報を精度良く算出できる。
 画像取得装置Mは、第1の撮像装置18で取得された第1の画像を評価する画像評価部41を更に備えている。合焦点算出部37では、画像評価部41による第1の画像のコントラスト値が所定の閾値以上である場合に、第1の入射領域24Aで取得された第2の画像の解析によってダイナミックプレフォーカスを実行し、画像評価部41による第1の画像のコントラスト値が所定の閾値未満である場合に、第1の入射領域24Aで取得された第2の画像の解析によってフォーカスマップの作成を行う。第1の画像の評価結果に基づいて、第1の入射領域24Aで取得された第2の画像、及び第2の入射領域24Bで取得された第2の画像のいずれを解析に用いるかを選択することで、合焦点情報の精度を担保できる。
 また、画像取得装置Mでは、試料Sに対する対物レンズ15の視野位置を移動させるステージ駆動部34を更に備え、光路差生成部材21は、ステージ駆動部34による対物レンズ15の視野位置の移動に伴う第2の撮像装置20の撮像面20a上での第2の光像の移動方向に沿って連続的に厚さが変化する第1の部材22と、厚さが一定の第2の部材23とを有し、第1の部材22が撮像面20aに第1の入射領域24Aを形成し、第2の部材23が撮像面20aに第2の入射領域24Bを形成している。これにより、簡単な光路差生成部材21の構成で、第2の撮像装置20の撮像面20aに第1の入射領域24A及び第2の入射領域24Bを形成できる。
 また、画像取得装置Mでは、第2の撮像装置20が複数の画素列20bを有すると共にローリング読み出しが可能な二次元撮像素子を有し、ステージ駆動部34による対物レンズ15の視野位置の移動と同期して各画素列20bのローリング読み出しを行うことによって第2の画像を取得する。第2の光路L2に光路差生成部材21が配置されていることにより、各画素列20bからの画像データには、試料Sの同一部位において対物レンズ15の焦点位置が変更されたときと等価のコントラスト情報が含まれる。したがって、当該コントラスト情報に基づいて合焦点情報を迅速かつ精度良く算出できる。フォーカスマップを作成する場合においても、対物レンズ15の焦点位置を移動させる必要がないので、焦点情報取得位置Qでの合焦点情報の迅速な算出が可能となる。
 本発明は、上記実施形態に限られるものではない。例えば上記実施形態では、第2の光像の移動方向に沿って連続的に厚さが変化する第1の部材22と、厚さが一定の第2の部材23とを組み合わせて光路差生成部材21を構成しているが、光路差生成部材は、第2の撮像装置20の撮像面20aに、光路差が生じた第2の光像が入射する第1の入射領域24Aと、光路差が生じない第2の光像が入射する第2の入射領域24Bとが形成されるのであれば、他の態様であってもよい。例えば図19(a)に示すように、第1の部材22のみからなる光路差生成部材51を用いてもよい。この場合においても、第2の撮像装置20の撮像面20aには、図19(b)に示すように、第1の部材22に対応して第1の入射領域24Aが形成され、光路差生成部材51の配置されない部分に対応して第2の入射領域24Bが形成される。
 また、上記実施形態では、試料Sの走査に伴う撮像面20a上での第2の光像の移動方向(Z方向)に沿って、撮像面20aの上半分領域に第1の入射領域24Aが形成され、下半分領域に第2の入射領域24Bが形成されているが、撮像面20aにおける第1の入射領域24A及び第2の入射領域24Bの形成位置はこれに限られない。例えば図20(a)に示す光路差生成部材61のように、断面直角三角形のプリズム状をなす第1の部材62と、平板状の第2の部材63とを画素列20bの長手方向に組み合わせてもよい。この場合、図20(b)に示すように、第1の入射領域24Aが撮像面20aの左半分領域に形成され、第2の入射領域24Bが撮像面20aの右半分領域に形成される。このような構成においても、上記実施形態と同様の作用効果が得られる。
 1…ステージ、12…光源、14…導光光学系、15…対物レンズ、16…ビームスプリッタ(光分岐手段)、18…第1の撮像装置(第1の撮像手段)、20…第2の撮像装置(第2の撮像手段)、20a…撮像面、20b…画素列、21,51,61…光路差生成部材、22,62…第1の部材(第1の部分)、23,63…第2の部材(第2の部分)、24A…第1の入射領域、24B…第2の入射領域、34…ステージ駆動部(視野駆動手段)、36…動作制御部(動作制御手段)、37…合焦点算出部(合焦点算出手段)、40…画像評価部(画像評価手段)、L1…第1の光路、L2…第2の光路、M…画像取得装置、M1…マクロ画像取得装置、M2…ミクロ画像取得装置、S…試料、Sa…所定部位、V…対物レンズの視野。

Claims (8)

  1.  試料が載置されるステージと、
     前記試料に向けて光を照射する光源と、
     前記ステージ上の前記試料と対峙するように配置された対物レンズ、及び前記試料の光像を画像取得用の第1の光路及び焦点制御用の第2の光路に分岐する光分岐手段を含む導光光学系と、
     前記第1の光路に分岐された第1の光像による第1の画像を取得する第1の撮像手段と、
     前記第2の光路に分岐された第2の光像による第2の画像を取得する第2の撮像手段と、
     前記第2の画像を解析し、その解析結果に基づいて前記試料の合焦点情報を算出する合焦点算出手段と、
     前記第2の撮像手段の撮像面の面内方向に沿って前記第2の光像に光路差を生じさせる光路差生成部材と、を備え、
     前記光路差生成部材は、前記第2の撮像手段の撮像面に、光路差が生じた前記第2の光像が入射する第1の入射領域と、光路差が生じない前記第2の光像が入射する第2の入射領域とが形成されるように前記第2の光路に配置され、
     前記合焦点算出手段は、前記第1の入射領域で取得された前記第2の画像、及び前記第2の入射領域で取得された前記第2の画像のいずれか一方を、解析に用いる前記第2の画像として選択することを特徴とする画像取得装置。
  2.  前記光路差生成部材及び前記第2の撮像手段は、前記試料における前記第1の撮像手段での撮像位置からの光が前記第2の入射領域に入射するように前記第2の光路に配置されていることを特徴とする請求項1記載の画像取得装置。
  3.  前記第1の撮像手段で取得された前記第1の画像を評価する画像評価手段を更に備え、
     前記合焦点算出手段は、前記画像評価手段による前記第1の画像の評価結果に基づいて、前記第1の入射領域で取得された前記第2の画像、及び前記第2の入射領域で取得された前記第2の画像のいずれか一方を選択することを特徴とする請求項1又は2記載の画像取得装置。
  4.  前記試料に対する前記対物レンズの視野位置を移動させる視野駆動手段を更に備え、
     前記光路差生成部材は、前記視野駆動手段による前記対物レンズの視野位置の移動に伴う前記第2の撮像手段の撮像面上での前記第2の光像の移動方向に沿って連続的に厚さが変化する第1の部分と、厚さが一定の第2の部分とを有し、
     前記第1の部分が前記撮像面に前記第1の入射領域を形成し、前記第2の部分が前記撮像面に前記第2の入射領域を形成することを特徴とする請求項1~3のいずれか一項記載の画像取得装置。
  5.  前記第2の撮像手段は、複数の画素列を有すると共にローリング読み出しが可能な二次元撮像素子を有し、前記視野駆動手段による前記対物レンズの視野位置の移動と同期して各画素列のローリング読み出しを行うことによって前記第2の画像を取得する請求項4記載の画像取得装置。
  6.  前記合焦点算出手段は、前記第1の入射領域で取得された前記第2の画像を解析に用いる場合には、前記二次元撮像素子の各画素列のうち、少なくとも2つの画素列で読み出された画像データのコントラスト値の差分に基づいて、前記試料の合焦点情報を算出することを特徴とする請求項5記載の画像取得装置。
  7.  前記合焦点算出手段は、前記第2の入射領域で取得された前記第2の画像を解析に用いる場合には、算出した合焦点情報に基づいてフォーカスマップを作成することを特徴とする請求項5記載の画像取得装置。
  8.  試料が載置されるステージと、
     前記試料に向けて光を照射する光源と、
     前記ステージ上の前記試料と対峙するように配置された対物レンズ、及び前記試料の光像を画像取得用の第1の光路及び焦点制御用の第2の光路に分岐する光分岐手段を含む導光光学系と、
     前記第1の光路に分岐された第1の光像による第1の画像を取得する第1の撮像手段と、
     前記第2の光路に分岐された第2の光像による第2の画像を取得する第2の撮像手段と、
     前記第2の画像を解析し、その解析結果に基づいて前記試料の合焦点情報を算出する合焦点算出手段と、
     前記第2の撮像手段の撮像面の面内方向に沿って前記第2の光像に光路差を生じさせる光路差生成部材と、を備えた画像取得装置のフォーカス方法であって、
     前記第2の撮像手段の撮像面に、光路差が生じた前記第2の光像が入射する第1の入射領域と、光路差が生じない前記第2の光像が入射する第2の入射領域とが形成されるように、前記光路差生成部材を前記第2の光路に配置し、
     前記第1の入射領域で取得された前記第2の画像、及び前記第2の入射領域で取得された前記第2の画像のいずれか一方を、解析に用いる前記第2の画像として前記合焦点算出手段に選択させることを特徴とする画像取得装置のフォーカス方法。
PCT/JP2014/055988 2013-04-26 2014-03-07 画像取得装置及び画像取得装置のフォーカス方法 WO2014174920A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013-094079 2013-04-26
JP2013094079 2013-04-26
JP2013122960A JP6010506B2 (ja) 2013-06-11 2013-06-11 画像取得装置及び画像取得装置のフォーカス方法
JP2013-122960 2013-06-11

Publications (1)

Publication Number Publication Date
WO2014174920A1 true WO2014174920A1 (ja) 2014-10-30

Family

ID=51791505

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/055988 WO2014174920A1 (ja) 2013-04-26 2014-03-07 画像取得装置及び画像取得装置のフォーカス方法

Country Status (1)

Country Link
WO (1) WO2014174920A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111669509A (zh) * 2020-07-15 2020-09-15 江苏骠马智能工业设计研究有限公司 改变像方光程的自动聚焦装置及自动聚焦方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005114293A1 (ja) * 2004-05-24 2005-12-01 Hamamatsu Photonics K.K. 顕微鏡装置
JP2012073285A (ja) * 2010-09-27 2012-04-12 Olympus Corp 撮像方法および顕微鏡装置
JP2012212155A (ja) * 2004-07-23 2012-11-01 Ge Healthcare Niagara Inc 共焦点蛍光顕微鏡法及び装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005114293A1 (ja) * 2004-05-24 2005-12-01 Hamamatsu Photonics K.K. 顕微鏡装置
JP2012212155A (ja) * 2004-07-23 2012-11-01 Ge Healthcare Niagara Inc 共焦点蛍光顕微鏡法及び装置
JP2012073285A (ja) * 2010-09-27 2012-04-12 Olympus Corp 撮像方法および顕微鏡装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111669509A (zh) * 2020-07-15 2020-09-15 江苏骠马智能工业设计研究有限公司 改变像方光程的自动聚焦装置及自动聚焦方法

Similar Documents

Publication Publication Date Title
JP6266601B2 (ja) 画像取得装置、試料のフォーカスマップを作成する方法及びシステム
JP5941395B2 (ja) 画像取得装置及び画像取得装置のフォーカス方法
WO2014174919A1 (ja) 画像取得装置及び画像取得装置のフォーカス方法
US9667858B2 (en) Image acquisition device and image acquisition device focusing method
US20200033564A1 (en) Image capturing apparatus and focusing method thereof
JP6433888B2 (ja) 画像取得装置、試料の合焦点情報を取得する方法及びシステム
JP5848596B2 (ja) 画像取得装置及び画像取得装置のフォーカス方法
JP5301642B2 (ja) 画像取得装置及び画像取得装置のフォーカス方法
JP5296861B2 (ja) 画像取得装置及び画像取得装置のフォーカス方法
JP6076205B2 (ja) 画像取得装置及び画像取得装置のフォーカス方法
WO2014112085A1 (ja) 画像取得装置及び画像取得装置のフォーカス方法
WO2014174920A1 (ja) 画像取得装置及び画像取得装置のフォーカス方法
US9860437B2 (en) Image capturing apparatus and focusing method thereof
JP6010506B2 (ja) 画像取得装置及び画像取得装置のフォーカス方法
WO2014112083A1 (ja) 画像取得装置及び画像取得装置のフォーカス方法
JP5770958B1 (ja) 画像取得装置及び撮像装置
JP5986041B2 (ja) 画像取得装置及び画像取得装置のフォーカス方法
JP6023012B2 (ja) 画像取得装置及び画像取得装置のフォーカス方法
JP6240056B2 (ja) 画像取得装置及び撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14787649

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14787649

Country of ref document: EP

Kind code of ref document: A1