JP2015102694A - Alignment device, microscopic system, alignment method, and alignment program - Google Patents

Alignment device, microscopic system, alignment method, and alignment program Download PDF

Info

Publication number
JP2015102694A
JP2015102694A JP2013243356A JP2013243356A JP2015102694A JP 2015102694 A JP2015102694 A JP 2015102694A JP 2013243356 A JP2013243356 A JP 2013243356A JP 2013243356 A JP2013243356 A JP 2013243356A JP 2015102694 A JP2015102694 A JP 2015102694A
Authority
JP
Japan
Prior art keywords
image
focus area
subject
focus
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013243356A
Other languages
Japanese (ja)
Other versions
JP6312410B2 (en
Inventor
洋子 阿部
Yoko Abe
洋子 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013243356A priority Critical patent/JP6312410B2/en
Publication of JP2015102694A publication Critical patent/JP2015102694A/en
Application granted granted Critical
Publication of JP6312410B2 publication Critical patent/JP6312410B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Microscoopes, Condenser (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an alignment device and the like that can acquire detailed inclination information between a placing surface of a subject and an imaging device without providing a mechanism dedicated to alignment.SOLUTION: An alignment device includes an image acquisition unit 21 that acquires an image obtained by photographing an area of a subject entering the field of view of an observation optical system provided opposite to the subject, a focus area detection unit 231 that detects a focus area from the image, and an inclination information calculation unit 232 that calculates inclination information between the observation optical system and the subject on the basis of information on the focus area detected by the focus area detection unit 231.

Description

本発明は、被写体の載置面と撮像装置との間に生じている傾斜に関する情報を取得するアライメント装置、該アライメント装置を適用した顕微鏡システム、アライメント方法、及びアライメントプログラムに関する。   The present invention relates to an alignment apparatus that acquires information about an inclination generated between a mounting surface of an object and an imaging apparatus, a microscope system to which the alignment apparatus is applied, an alignment method, and an alignment program.

一般に、顕微鏡の焦点深度は数十μmレベルであり、非常に浅い。そのため、観察対象の標本を載置するステージが僅かに傾いているだけで、顕微鏡の視野内にボケ領域が生じ、正しい像を取得することができない。このような視野内のボケは、焦点深度が浅い高倍率の観察を行う場合ほど著しく、その結果、顕微鏡観察画像の画質劣化や、標本計測の精度低下等を招いてしまう。   In general, the depth of focus of a microscope is several tens of μm, which is very shallow. Therefore, even if the stage on which the specimen to be observed is placed is slightly inclined, a blurred area is generated in the field of view of the microscope, and a correct image cannot be acquired. Such blurring in the field of view is more noticeable when a high-magnification observation with a shallow depth of focus is performed, and as a result, the image quality of the microscope observation image is deteriorated, the accuracy of sample measurement is reduced, and the like.

工場出荷時には通常、顕微鏡のステージの水平度が保たれているが、その後の使用状況によってはステージ固定ネジの緩みや劣化等が生じ、ステージに傾斜が生じる場合がある。このような場合、ユーザが、手動でステージ固定ネジを締め直す、或いは、顕微鏡に備えられた電動ステージの姿勢調整機構を用いるなどして、ステージの傾斜を調整する。しかしながら、数μmレベルでの傾斜量や傾斜方向を検出し、精度良く調整を行うことは非常に困難である。   Normally, the level of the microscope stage is maintained at the time of shipment from the factory. However, depending on the use situation thereafter, the stage fixing screw may be loosened or deteriorated, and the stage may be inclined. In such a case, the user adjusts the tilt of the stage by manually retightening the stage fixing screw or using an attitude adjustment mechanism of the electric stage provided in the microscope. However, it is very difficult to detect the amount of inclination and the direction of inclination at a level of several μm and perform adjustment with high accuracy.

ステージ調整に関連する技術として、特許文献1には、スライドガラス上に反射率の高い材料で設けられた検出点(パターンマーク)に計測用光源から光を照射し、シリンドリカルレンズを介して検出点からの反射光を受光することにより形成された像の形状に基づき、スライドガラスの傾斜を検出して調整する技術が開示されている。   As a technique related to stage adjustment, Patent Document 1 discloses that a detection point (pattern mark) provided with a highly reflective material on a slide glass is irradiated with light from a measurement light source, and is detected via a cylindrical lens. A technique for detecting and adjusting the inclination of the slide glass based on the shape of the image formed by receiving the reflected light from is disclosed.

特開2010−101959号公報JP 2010-101959 A

しかしながら、上記特許文献1の場合、スライドガラスの傾斜を検出するために、シリンドリカルレンズや計測用光源等の専用機構を設ける必要がある。そのため、装置構成が複雑であり、汎用の顕微鏡にそのまま適用することはできない。また、特許文献1においては、傾斜の有無を検出しているに過ぎず、傾斜角度や傾斜の開始位置等の詳細な傾斜情報を得ることはできない。そのため、傾斜の有無を検出した後、傾斜を補正するために微調整を繰り返さなくてはならない。   However, in the case of the above-mentioned Patent Document 1, it is necessary to provide a dedicated mechanism such as a cylindrical lens or a measurement light source in order to detect the inclination of the slide glass. Therefore, the apparatus configuration is complicated and cannot be applied to a general-purpose microscope as it is. Moreover, in patent document 1, only the presence or absence of inclination is detected, and detailed inclination information such as an inclination angle and an inclination start position cannot be obtained. Therefore, after detecting the presence or absence of inclination, fine adjustment must be repeated to correct the inclination.

本発明は上記に鑑みてなされたものであり、専用機構を設けることなく、被写体の載置面と撮像装置との間に生じている傾斜に関する詳細な傾斜情報を取得することができるアライメント装置、該アライメント装置を適用した顕微鏡システム、アライメント方法、及びアライメントプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an alignment apparatus capable of acquiring detailed tilt information regarding the tilt occurring between the object mounting surface and the imaging device without providing a dedicated mechanism, It is an object to provide a microscope system, an alignment method, and an alignment program to which the alignment apparatus is applied.

上述した課題を解決し、目的を達成するために、本発明に係るアライメント装置は、被写体と対向して設けられた観察光学系の視野に入る前記被写体の領域が撮像された画像を取得する画像取得部と、前記画像から合焦領域を検出する合焦領域検出手段と、前記合焦領域検出手段によって検出された前記合焦領域に関する情報に基づいて、前記観察光学系と前記被写体との間の傾斜情報を算出する傾斜情報算出手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the alignment apparatus according to the present invention acquires an image obtained by capturing an image of the region of the subject that enters the field of view of an observation optical system provided facing the subject. Based on information on the focus area detected by the acquisition section, the focus area detection means for detecting the focus area from the image, and the focus area detection means, between the observation optical system and the subject And an inclination information calculating means for calculating the inclination information.

本発明に係る顕微鏡システムは、前記アライメント装置と、前記観察光学系と、前記被検体が載置されるステージと、を備えることを特徴とする。   A microscope system according to the present invention includes the alignment apparatus, the observation optical system, and a stage on which the subject is placed.

本発明に係るアライメント方法は、被写体と対向して設けられた観察光学系の視野に入る前記被写体の領域が撮像された画像を取得する画像取得ステップと、前記画像から合焦領域を検出する合焦領域検出ステップと、前記合焦領域検出ステップにおいて検出された前記合焦領域に関する情報に基づいて、前記観察光学系と前記被写体との間の傾斜情報を算出する傾斜情報算出ステップと、を含むことを特徴とする。   The alignment method according to the present invention includes an image acquisition step of acquiring an image in which a region of the subject entering the field of view of an observation optical system provided opposite to the subject is acquired, and a focus detection of the focus region from the image. A focus area detecting step, and a tilt information calculating step of calculating tilt information between the observation optical system and the subject based on information on the focus area detected in the focus area detecting step. It is characterized by that.

本発明に係るアライメントプログラムは、被写体と対向して設けられた観察光学系の視野に入る前記被写体の領域が撮像された画像を取得する画像取得ステップと、前記画像から合焦領域を検出する合焦領域検出ステップと、前記合焦領域検出ステップにおいて検出された前記合焦領域に関する情報に基づいて、前記観察光学系と前記被写体との間の傾斜情報を算出する傾斜情報算出ステップと、をコンピュータに実行させることを特徴とする。   An alignment program according to the present invention includes an image acquisition step of acquiring an image in which a region of the subject entering the field of view of an observation optical system provided opposite to the subject is acquired, and a focus detection of the in-focus region from the image. A focus area detecting step; and a tilt information calculating step of calculating tilt information between the observation optical system and the subject based on information on the focus area detected in the focus area detecting step. It is made to perform.

本発明によれば、画像から検出された合焦領域に関する情報に基づいて、観察光学系と被写体との間の傾斜情報を算出するので、アライメントのための専用機構を設けることなく、被写体の載置面と撮像装置との間における詳細且つ精度の良い傾斜情報を取得することができる。   According to the present invention, since the tilt information between the observation optical system and the subject is calculated based on the information on the focus area detected from the image, the subject can be mounted without providing a dedicated mechanism for alignment. Detailed and accurate tilt information between the mounting surface and the imaging device can be acquired.

図1は、本発明の実施の形態1に係る顕微鏡システムの構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of a microscope system according to Embodiment 1 of the present invention. 図2は、図1に示す顕微鏡装置の構成例を示す模式図である。FIG. 2 is a schematic diagram illustrating a configuration example of the microscope apparatus illustrated in FIG. 1. 図3は、図1に示す撮像制御部の機能を説明するための模式図である。FIG. 3 is a schematic diagram for explaining the function of the imaging control unit shown in FIG. 図4は、図1に示す制御部の動作を説明するための模式図である。FIG. 4 is a schematic diagram for explaining the operation of the control unit shown in FIG. 図5は、図1に示すアライメント装置の動作を示すフローチャートである。FIG. 5 is a flowchart showing the operation of the alignment apparatus shown in FIG. 図6は、被写体に形成されたパターンの一例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example of a pattern formed on a subject. 図7は、図1に示す合焦領域検出部が実行する合焦領域検出処理を示すフローチャートである。FIG. 7 is a flowchart showing a focus area detection process executed by the focus area detection unit shown in FIG. 図8は、画像を16個の小領域に分割した例を示す模式図である。FIG. 8 is a schematic diagram showing an example in which an image is divided into 16 small regions. 図9は、図8に示す1つの小領域から抽出されたエッジを示すエッジ画像の模式図である。FIG. 9 is a schematic diagram of an edge image showing edges extracted from one small region shown in FIG. 図10は、合焦領域の選択方法を説明するための模式図である。FIG. 10 is a schematic diagram for explaining a method of selecting a focus area. 図11は、合焦領域の選択結果を示す模式図である。FIG. 11 is a schematic diagram illustrating a result of selecting a focus area. 図12は、図1に示す傾斜情報算出部が実行する傾斜情報算出処理を説明するためのフローチャートである。FIG. 12 is a flowchart for explaining the inclination information calculation processing executed by the inclination information calculation unit shown in FIG. 図13は、本発明の実施の形態1における傾斜情報算出処理を説明するための模式図である。FIG. 13 is a schematic diagram for explaining the inclination information calculation processing according to Embodiment 1 of the present invention. 図14は、本発明の実施の形態1における傾斜情報算出処理を説明するための模式図である。FIG. 14 is a schematic diagram for explaining the inclination information calculation processing according to Embodiment 1 of the present invention. 図15は、本発明の実施の形態1における傾斜情報算出処理を説明するための模式図である。FIG. 15 is a schematic diagram for explaining the inclination information calculation processing in the first embodiment of the present invention. 図16は、本発明の実施の形態1における傾斜情報算出処理を説明するための模式図である。FIG. 16 is a schematic diagram for explaining the inclination information calculation processing according to Embodiment 1 of the present invention. 図17は、本発明の実施の形態1における傾斜情報算出処理を説明するための模式図である。FIG. 17 is a schematic diagram for explaining the inclination information calculation processing according to Embodiment 1 of the present invention. 図18は、本発明の実施の形態1における傾斜情報算出処理を説明するための模式図である。FIG. 18 is a schematic diagram for explaining the inclination information calculation processing in Embodiment 1 of the present invention. 図19は、本発明の実施の形態1における傾斜情報算出処理を説明するための模式図である。FIG. 19 is a schematic diagram for explaining the inclination information calculation processing according to Embodiment 1 of the present invention. 図20は、傾斜情報の表示例である傾斜特性マップを示す模式図である。FIG. 20 is a schematic diagram showing an inclination characteristic map that is an example of display of inclination information. 図21は、本発明の実施の形態1の変形例1における合焦領域検出処理を示すフローチャートである。FIG. 21 is a flowchart showing a focus area detection process in the first modification of the first embodiment of the present invention. 図22は、本発明の実施の形態1の変形例1における合焦領域検出処理において用いられる観察画像及び基準画像を示す模式図である。FIG. 22 is a schematic diagram showing an observation image and a reference image used in the focus area detection process in the first modification of the first embodiment of the present invention. 図23は、本発明の実施の形態2に係る顕微鏡システムの構成例を示すブロック図である。FIG. 23 is a block diagram illustrating a configuration example of a microscope system according to Embodiment 2 of the present invention. 図24は、図23に示すアライメント装置の動作を示すフローチャートである。FIG. 24 is a flowchart showing the operation of the alignment apparatus shown in FIG. 図25は、本発明の実施の形態3に係る顕微鏡システムの構成例を示すブロック図である。FIG. 25 is a block diagram showing a configuration example of a microscope system according to Embodiment 3 of the present invention. 図26は、図25に示すアライメント装置の動作を示すフローチャートである。FIG. 26 is a flowchart showing the operation of the alignment apparatus shown in FIG. 図27は、本発明の実施の形態3において処理対象とする画像の一例を示す模式図である。FIG. 27 is a schematic diagram illustrating an example of an image to be processed in the third embodiment of the present invention. 図28は、図25に示す視野移動判定部が実行する視野移動要否の判定処理を示すフローチャートである。FIG. 28 is a flowchart showing the determination processing of whether or not the visual field movement is necessary, which is executed by the visual field movement determination unit shown in FIG. 図29は、視野移動要否の判定処理を説明するための模式図である。FIG. 29 is a schematic diagram for explaining a process for determining whether or not the visual field movement is necessary. 図30は、視野移動要否の判定処理を説明するための模式図である。FIG. 30 is a schematic diagram for explaining the determination process of whether or not the visual field movement is necessary. 図31は、視野移動要否の判定処理を説明するための模式図である。FIG. 31 is a schematic diagram for explaining the process of determining whether or not the visual field movement is necessary. 図32は、本発明の実施の形態4に係る顕微鏡システムの構成例を示すブロック図である。FIG. 32 is a block diagram showing a configuration example of a microscope system according to Embodiment 4 of the present invention. 図33は、図32に示すアライメント装置の動作を示すフローチャートである。FIG. 33 is a flowchart showing the operation of the alignment apparatus shown in FIG. 図34は、図32に示す合焦領域検出部が実行する合焦領域検出処理を示すフローチャートである。FIG. 34 is a flowchart showing a focus area detection process executed by the focus area detection unit shown in FIG. 図35は、合焦領域検出処理を説明するための模式図である。FIG. 35 is a schematic diagram for explaining the focus area detection processing. 図36は、図32に示す非合焦領域探索判定部が実行する非合焦領域探索判定処理を示すフローチャートである。FIG. 36 is a flowchart showing a non-focus area search determination process executed by the non-focus area search determination section shown in FIG. 図37は、非合焦領域探索判定処理を説明するための模式図である。FIG. 37 is a schematic diagram for explaining the out-of-focus area search determination processing. 図38は、非合焦領域探索判定処理を説明するための模式図である。FIG. 38 is a schematic diagram for explaining the out-of-focus area search determination process. 図39は、非合焦領域探索判定処理を説明するための模式図である。FIG. 39 is a schematic diagram for explaining the out-of-focus area search determination process. 図40は、非合焦領域探索判定処理を説明するための模式図である。FIG. 40 is a schematic diagram for explaining the out-of-focus area search determination process. 図41は、非合焦領域探索判定処理を説明するための模式図である。FIG. 41 is a schematic diagram for explaining the out-of-focus area search determination processing. 図42は、非合焦領域探索判定処理を説明するための模式図である。FIG. 42 is a schematic diagram for explaining the out-of-focus area search determination processing. 図43は、非合焦領域探索判定処理を説明するための模式図である。FIG. 43 is a schematic diagram for explaining the out-of-focus area search determination processing. 図44は、本発明の実施の形態5に係る顕微鏡システムの構成例を示すブロック図である。FIG. 44 is a block diagram showing a configuration example of a microscope system according to Embodiment 5 of the present invention. 図45は、本発明の実施の形態5における撮像方法を示す模式図である。FIG. 45 is a schematic diagram showing an imaging method according to Embodiment 5 of the present invention. 図46は、本発明の実施の形態5における撮像方法を示す模式図である。FIG. 46 is a schematic diagram showing an imaging method according to Embodiment 5 of the present invention. 図47は、図44に示すアライメント装置の動作を示すフローチャートである。FIG. 47 is a flowchart showing the operation of the alignment apparatus shown in FIG. 図48は、観察画像及び基準画像を示す模式図である。FIG. 48 is a schematic diagram showing an observation image and a reference image. 図49は、図44に示す傾斜情報算出部が実行する傾斜情報算出処理を示すフローチャートである。FIG. 49 is a flowchart showing the inclination information calculation process executed by the inclination information calculation unit shown in FIG. 図50は、傾斜特定算出処理を説明するための模式図である。FIG. 50 is a schematic diagram for explaining the inclination specifying calculation process. 図51は、傾斜特定算出処理を説明するための模式図である。FIG. 51 is a schematic diagram for explaining the inclination specifying calculation process. 図52は、傾斜特定算出処理を説明するための模式図である。FIG. 52 is a schematic diagram for explaining the inclination specifying calculation process.

以下、本発明に係るアライメント装置、顕微鏡システム、アライメント方法、及びアライメントプログラムの実施の形態について、図面を参照しながら詳細に説明する。なお、これらの実施の形態により本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。   Hereinafter, embodiments of an alignment apparatus, a microscope system, an alignment method, and an alignment program according to the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited to these embodiments. Moreover, in description of each drawing, the same code | symbol is attached | subjected and shown to the same part.

また、以下の実施の形態においては、本発明を、ステージ上に載置された被写体を撮像して顕微鏡観察画像を取得する顕微鏡システムに適用する例を説明するが、例えばデジタルカメラのように、被写体の画像を取得可能な装置やシステムであれば、本発明を適用することができる。   Further, in the following embodiment, an example in which the present invention is applied to a microscope system that captures a subject placed on a stage and acquires a microscope observation image will be described. The present invention can be applied to any apparatus or system that can acquire an image of a subject.

(実施の形態1)
図1は、本発明の実施の形態1に係る顕微鏡システムの構成を示す図である。図1に示すように、実施の形態1に係る顕微鏡システム1は、被写体の拡大像を生成する顕微鏡装置10と、該顕微鏡装置10が生成した拡大像に基づいて該顕微鏡装置10のアライメントを行うアライメント装置20とを備える。
(Embodiment 1)
FIG. 1 is a diagram showing a configuration of a microscope system according to Embodiment 1 of the present invention. As shown in FIG. 1, the microscope system 1 according to the first embodiment aligns the microscope apparatus 10 based on the microscope apparatus 10 that generates an enlarged image of the subject and the enlarged image generated by the microscope apparatus 10. Alignment device 20 is provided.

図2は、顕微鏡装置10の構成例を示す模式図である。図2に示すように、顕微鏡装置10は、略C字形のアーム100と、該アーム100上に三眼鏡筒ユニット101を介して支持された鏡筒102及び接眼レンズユニット103と、アーム100に設けられた落射照明ユニット110及び透過照明ユニット120と、被写体Sが載置されるステージ131を含む電動ステージユニット130と、鏡筒102の一端側に三眼鏡筒ユニット101を介してステージ131と対向するように設けられ、被写体Sからの観察光を結像する対物レンズ140と、ステージ傾斜調節部150とを備える。   FIG. 2 is a schematic diagram illustrating a configuration example of the microscope apparatus 10. As shown in FIG. 2, the microscope apparatus 10 includes a substantially C-shaped arm 100, a lens barrel 102 and an eyepiece unit 103 supported on the arm 100 via a trinocular tube unit 101, and the arm 100. The incident illumination unit 110 and the transmitted illumination unit 120, the electric stage unit 130 including the stage 131 on which the subject S is placed, and the stage 131 facing the stage 131 through the trinocular tube unit 101 on one end side of the lens barrel 102. An objective lens 140 that forms an image of observation light from the subject S, and a stage tilt adjustment unit 150.

三眼鏡筒ユニット101は、対物レンズ140から入射した観察光を、ユーザが被写体Sを直接観察するための接眼レンズユニット103と、後述する撮像部211との方向に分岐する。   The trinocular tube unit 101 branches the observation light incident from the objective lens 140 in the direction of an eyepiece unit 103 for the user to directly observe the subject S and an imaging unit 211 described later.

落射照明ユニット110は、落射照明用光源111及び落射照明光学系112を備え、被写体Sに対して落射照明光を照射する。落射照明光学系112は、落射照明用光源111から出射した照明光を集光して、観察光学系104の光軸Lの方向に導く種々の光学部材(フィルタユニット、シャッタ、視野絞り、開口絞り等)を含む。   The epi-illumination unit 110 includes an epi-illumination light source 111 and an epi-illumination optical system 112, and irradiates the subject S with epi-illumination light. The epi-illumination optical system 112 condenses the illumination light emitted from the epi-illumination light source 111 and guides it in the direction of the optical axis L of the observation optical system 104 (filter unit, shutter, field stop, aperture stop). Etc.).

透過照明ユニット120は、透過照明用光源121及び透過照明光学系122を備え、被写体Sに対して透過照明光を照射する。透過照明光学系122は、透過照明用光源121から出射した照明光を集光して光軸Lの方向に導く種々の光学部材(フィルタユニット、シャッタ、視野絞り、開口絞り等)を含む。   The transmitted illumination unit 120 includes a transmitted illumination light source 121 and a transmitted illumination optical system 122 and irradiates the subject S with transmitted illumination light. The transmission illumination optical system 122 includes various optical members (filter unit, shutter, field stop, aperture stop, etc.) that collect the illumination light emitted from the transmission illumination light source 121 and guide it in the direction of the optical axis L.

これらの落射照明ユニット110及び透過照明ユニット120は、検鏡法に応じていずれかが選択されて使用される。なお、顕微鏡装置10に、落射照明ユニット110と透過照明ユニット120とのいずれか一方のみを設けることとしても良い。   Either one of the epi-illumination unit 110 and the transmission illumination unit 120 is selected and used according to the spectroscopic method. The microscope apparatus 10 may be provided with only one of the epi-illumination unit 110 and the transmission illumination unit 120.

電動ステージユニット130は、ステージ131と、該ステージ131を駆動させるステージ駆動部132と、位置検出部133とを備える。ステージ駆動部132は、例えばモータによって構成され、後述する撮像制御部22の制御の下でステージ131を対物レンズ140の光軸と直交する面内(即ちXY平面内)において移動させるステージ移動機構である。このようにステージ131を移動させることにより、対物レンズ140の視野が変化する。また、ステージ駆動部132は、ステージ131をZ軸に沿って移動させることにより、対物レンズ140を被写体Sに対して合焦させる。   The electric stage unit 130 includes a stage 131, a stage driving unit 132 that drives the stage 131, and a position detection unit 133. The stage drive unit 132 is configured by a motor, for example, and is a stage moving mechanism that moves the stage 131 in a plane orthogonal to the optical axis of the objective lens 140 (that is, in the XY plane) under the control of the imaging control unit 22 described later. is there. By moving the stage 131 in this way, the field of view of the objective lens 140 changes. Further, the stage driving unit 132 causes the objective lens 140 to focus on the subject S by moving the stage 131 along the Z axis.

なお、実施の形態1においては、電気的な制御によりステージ131の移動が可能な構成としているが、調節ツマミ等を用いてステージ131をユーザが手動で移動させる構成としても良い。   In the first embodiment, the stage 131 can be moved by electrical control. However, the stage 131 may be manually moved by an adjustment knob or the like.

また、実施の形態1においては、対物レンズ140及び鏡筒102を含む観察光学系104の位置を固定し、ステージ131側を移動させているが、ステージ131の位置を固定し、観察光学系104側を移動させても良い。或いは、ステージ131と観察光学系104との双方を互いに反対方向に移動させても良い。つまり、観察光学系104と被写体Sとが相対的に移動可能な構成であれば、どのような構成であっても構わない。   In the first embodiment, the position of the observation optical system 104 including the objective lens 140 and the lens barrel 102 is fixed and moved on the stage 131 side. However, the position of the stage 131 is fixed and the observation optical system 104 is fixed. You may move the side. Alternatively, both the stage 131 and the observation optical system 104 may be moved in opposite directions. That is, any configuration may be used as long as the observation optical system 104 and the subject S are relatively movable.

位置検出部133は、例えばモータからなるステージ駆動部132の回転量を検出するエンコーダによって構成され、ステージ131の位置を検出して検出信号を出力する。なお、ステージ駆動部132及び位置検出部133の代わりに、後述する撮像制御部22の制御に従ってパルスを発生するパルス発生部及びステッピングモータを設けても良い。   The position detection unit 133 is configured by an encoder that detects the amount of rotation of the stage driving unit 132 made of, for example, a motor, and detects the position of the stage 131 and outputs a detection signal. Instead of the stage drive unit 132 and the position detection unit 133, a pulse generation unit and a stepping motor that generate pulses in accordance with the control of the imaging control unit 22 described later may be provided.

対物レンズ140は、倍率が互いに異なる複数の対物レンズ(例えば、対物レンズ140、141)を保持可能なレボルバ142に取り付けられている。レボルバ142を回転させ、ステージ131と対向する対物レンズ140、141を変更することにより、撮像倍率を変化させることができる。なお、図2は、対物レンズ140がステージ131と対向している状態を示している。レボルバ142にはエンコーダが設けられており、後述する画像取得部21が撮像を行ったタイミングで、該エンコーダの出力値が顕微鏡装置10からアライメント装置20に入力される。アライメント装置20においては、この出力値に基づき、被写体Sと対向する対物レンズ140の開口数及び倍率を取得することができる。   The objective lens 140 is attached to a revolver 142 that can hold a plurality of objective lenses having different magnifications (for example, the objective lenses 140 and 141). The imaging magnification can be changed by rotating the revolver 142 and changing the objective lenses 140 and 141 facing the stage 131. FIG. 2 shows a state in which the objective lens 140 faces the stage 131. The revolver 142 is provided with an encoder, and the output value of the encoder is input from the microscope apparatus 10 to the alignment apparatus 20 at the timing when the image acquisition unit 21 described later performs imaging. The alignment apparatus 20 can acquire the numerical aperture and magnification of the objective lens 140 facing the subject S based on this output value.

ステージ傾斜調節部150は、ステージ131のXY平面に対する傾斜を調節する調節つまみ151と、該調節つまみ151を電気的な制御により動作させる調節つまみ駆動部152とを備える。   The stage tilt adjustment unit 150 includes an adjustment knob 151 that adjusts the tilt of the stage 131 with respect to the XY plane, and an adjustment knob drive unit 152 that operates the adjustment knob 151 by electrical control.

再び図1を参照すると、アライメント装置20は、被写体Sを撮像することにより画像を取得する画像取得部21と、該画像取得部21の撮像動作を制御する撮像制御部22と、当該アライメント装置20における各種動作を制御すると共に、画像取得部21が取得した画像に基づいて、対物レンズ140の合焦面に対する被写体Sの傾斜、言い換えると、ステージ131の傾斜に関する情報(以下、傾斜情報ともいう)を算出する制御部23と、画像データや制御プログラム等の各種情報を記憶する記憶部24と、当該アライメント装置20に対する指示や情報を入力するための入力部25と、制御部23による処理の結果やその他所定の情報を出力する出力部26とを備える。   Referring to FIG. 1 again, the alignment apparatus 20 includes an image acquisition unit 21 that acquires an image by imaging the subject S, an imaging control unit 22 that controls the imaging operation of the image acquisition unit 21, and the alignment apparatus 20. Information on the inclination of the subject S relative to the focal plane of the objective lens 140, in other words, the inclination of the stage 131 (hereinafter also referred to as inclination information), based on the image acquired by the image acquisition unit 21. As a result of processing by the control unit 23, a storage unit 24 that stores various information such as image data and a control program, an input unit 25 for inputting instructions and information to the alignment device 20, and a result of processing by the control unit 23 And an output unit 26 for outputting other predetermined information.

画像取得部21は、撮像部211及びメモリ212を備える。
撮像部211は、例えばCCDやCMOS等からなる撮像素子211aを備え、撮像素子211aが備える各画素においてR(赤)、G(緑)、B(青)の各バンドにおける画素レベル(画素値)を持つカラー画像を撮像可能なカメラを用いて構成される。或いは、各画素における画素レベル(画素値)として輝度値Yを出力するモノクロ画像を撮像可能なカメラを用いて撮像部211を構成しても良い。
The image acquisition unit 21 includes an imaging unit 211 and a memory 212.
The imaging unit 211 includes an imaging element 211a made of, for example, a CCD or a CMOS, and pixel levels (pixel values) in each band of R (red), G (green), and B (blue) in each pixel included in the imaging element 211a. It is configured using a camera capable of capturing a color image having Or you may comprise the imaging part 211 using the camera which can image the monochrome image which outputs the luminance value Y as a pixel level (pixel value) in each pixel.

このような撮像部211は、観察光学系104(鏡筒102)の一端に、光軸Lが撮像素子211aの受光面の中心を通るように設けられ、観察光学系104を介して受光面に入射した観察光を光電変換することにより、観察光学系104の視野に対応する画像データを生成する。以下において、撮像素子211aの受光面の中心位置を、イメージャ中心ともいう。   Such an imaging unit 211 is provided at one end of the observation optical system 104 (lens barrel 102) so that the optical axis L passes through the center of the light receiving surface of the image sensor 211a. Image data corresponding to the field of view of the observation optical system 104 is generated by photoelectrically converting the incident observation light. Hereinafter, the center position of the light receiving surface of the image sensor 211a is also referred to as an imager center.

メモリ212は、例えば更新記録可能なフラッシュメモリ、RAM、ROMといった半導体メモリ等の記録装置からなり、撮像部211が生成した画像データを一時的に記憶する。   The memory 212 includes a recording device such as a flash memory that can be updated and recorded, a semiconductor memory such as a RAM, and a ROM, and temporarily stores the image data generated by the imaging unit 211.

図3は、撮像制御部22の機能を説明するための模式図であり、図2に示すステージ131及び対物レンズ140を拡大して示している。図3に示すように、撮像制御部22は、顕微鏡装置10に制御信号を出力してステージ131を移動させることにより、被写体Sに対する観察光学系104の相対的な位置を変化させると共に、撮像部211に撮像を実行させることにより、観察光学系104の視野Vに入る被写体Sの領域の画像を取得する制御を行う。   FIG. 3 is a schematic diagram for explaining the function of the imaging control unit 22, and shows the stage 131 and the objective lens 140 shown in FIG. 2 in an enlarged manner. As illustrated in FIG. 3, the imaging control unit 22 outputs a control signal to the microscope apparatus 10 and moves the stage 131 to change the relative position of the observation optical system 104 with respect to the subject S, and the imaging unit. By causing 211 to perform imaging, control is performed to acquire an image of the area of the subject S that enters the field of view V of the observation optical system 104.

制御部23は、例えばCPU等のハードウェアによって構成され、記憶部24に記憶されたプログラムを読み込むことにより、記憶部24に記憶された各種パラメータや入力部25から入力される情報等に基づき、アライメント装置20及び顕微鏡システム1全体の動作を統括的に制御する。また、制御部23は、画像取得部21から入力された画像データに所定の画像処理を施すことにより画像を生成し、該画像に基づいてステージ131の傾斜情報を取得する。   The control unit 23 is configured by hardware such as a CPU, for example, and by reading a program stored in the storage unit 24, based on various parameters stored in the storage unit 24, information input from the input unit 25, and the like, The overall operation of the alignment apparatus 20 and the microscope system 1 is controlled. In addition, the control unit 23 generates an image by performing predetermined image processing on the image data input from the image acquisition unit 21, and acquires the tilt information of the stage 131 based on the image.

図4は、制御部23の動作を説明するための模式図であり、図2に示すステージ131及び対物レンズ140を拡大して示している。通常、顕微鏡装置10においては、図3に示すように、対物レンズ140の光軸Lに対してステージ131の載置面131aが直交するように、ステージ131の傾斜が調整されている。例えば光軸LがZ方向と平行になっている場合、載置面131aがXY平面に平行となるように調整される。しかしながら、顕微鏡装置10の使用状況によっては、図4に示すように、XY平面に対してステージ131が傾斜してしまうことがある。制御部23は、このような場合に、XY平面に対するステージ131の傾斜情報として、ステージ131の傾斜方向及び傾斜角度αを算出する。   FIG. 4 is a schematic diagram for explaining the operation of the control unit 23, and shows the stage 131 and the objective lens 140 shown in FIG. 2 in an enlarged manner. Normally, in the microscope apparatus 10, as shown in FIG. 3, the inclination of the stage 131 is adjusted so that the mounting surface 131 a of the stage 131 is orthogonal to the optical axis L of the objective lens 140. For example, when the optical axis L is parallel to the Z direction, the placement surface 131a is adjusted to be parallel to the XY plane. However, depending on how the microscope apparatus 10 is used, the stage 131 may be inclined with respect to the XY plane as shown in FIG. In such a case, the control unit 23 calculates the tilt direction and the tilt angle α of the stage 131 as tilt information of the stage 131 with respect to the XY plane.

制御部23は、視野Vが写った画像から合焦領域を検出する合焦領域検出部231と、該合焦領域に関する情報に基づいて、対物レンズ140とステージ131との間の傾斜情報を算出する傾斜情報算出部232とを備える。   The control unit 23 calculates tilt information between the objective lens 140 and the stage 131 based on the focus region detection unit 231 that detects the focus region from the image in which the field of view V is captured, and information on the focus region. An inclination information calculation unit 232 that performs the above-described operation.

記憶部24は、更新記録可能なフラッシュメモリ、RAM、ROMといった半導体メモリ等の記録装置や、内蔵若しくはデータ通信端子で接続されたハードディスク、MO、CD−R、DVD−R等の記録媒体と該記録媒体に記録された情報を読み取る読取装置とを含む記録装置等によって構成される。記憶部24は、制御部23における演算に使用されるパラメータを記憶するパラメータ記憶部241と、当該アライメント装置20に所定の動作を実行させるための制御プログラムや制御部23に傾斜情報を算出させるためのアライメントプログラム等を記憶するプログラム記憶部242とを備える。パラメータ記憶部241には、例えば、顕微鏡装置10において交換可能な対物レンズ140、141の各々の開口数及び倍率や、該倍率に基づく像倍率等のパラメータが記憶されている。   The storage unit 24 includes a recording device such as a flash memory, RAM, and ROM that can be updated and recorded, a recording medium such as a hard disk, MO, CD-R, and DVD-R that is built-in or connected by a data communication terminal, and the recording medium. And a recording device including a reading device that reads information recorded on the recording medium. The storage unit 24 stores a parameter used for calculation in the control unit 23, a control program for causing the alignment apparatus 20 to perform a predetermined operation, and causes the control unit 23 to calculate inclination information. A program storage unit 242 for storing the alignment program and the like. The parameter storage unit 241 stores, for example, parameters such as the numerical aperture and magnification of each of the objective lenses 140 and 141 exchangeable in the microscope apparatus 10 and the image magnification based on the magnification.

入力部25は、キーボード、各種ボタン、各種スイッチ等の入力デバイスや、マウスやタッチパネル等のポインティングデバイス等により構成され、これらのデバイスに対する操作に応じた信号を制御部23に入力する。   The input unit 25 includes input devices such as a keyboard, various buttons, and various switches, a pointing device such as a mouse and a touch panel, and the like, and inputs signals corresponding to operations on these devices to the control unit 23.

出力部26は、画像取得部21により取得された画像データに基づく画像や、制御部23により算出された傾斜情報を、表示装置27等の外部機器に出力する外部インタフェースである。   The output unit 26 is an external interface that outputs an image based on the image data acquired by the image acquisition unit 21 and tilt information calculated by the control unit 23 to an external device such as the display device 27.

表示装置27は、例えば、LCD、ELディスプレイ、CRTディスプレイ等によって構成され、出力部26から出力された画像や傾斜情報等を画面に表示する。
なお、実施の形態1においては、表示装置27をアライメント装置20の外部に設けているが、アライメント装置20の内部に設けても良い。
The display device 27 is configured by, for example, an LCD, an EL display, a CRT display, and the like, and displays an image, tilt information, and the like output from the output unit 26 on the screen.
Although the display device 27 is provided outside the alignment device 20 in the first embodiment, it may be provided inside the alignment device 20.

このようなアライメント装置20は、例えばパーソナルコンピュータやワークステーション等の汎用の装置に、外部インタフェース(図示せず)を介して汎用のデジタルカメラを組み合わせることによって構成することができる。   Such an alignment apparatus 20 can be configured by combining a general-purpose digital camera via an external interface (not shown) with a general-purpose apparatus such as a personal computer or a workstation.

次に、アライメント装置20の動作について説明する。図5は、アライメント装置20の動作を示すフローチャートである。
以下の説明においては、対物レンズ140の光軸LをZ方向、該光軸Lと直交する面をXY平面とし、該XY平面に対するステージ131の載置面131aの傾斜情報を算出するものとする。また、各ステップの説明及び図面においては、X方向において生じている傾斜についてのみ言及するが、Y方向において生じている傾斜についても同様の処理により算出することができる。
Next, the operation of the alignment apparatus 20 will be described. FIG. 5 is a flowchart showing the operation of the alignment apparatus 20.
In the following description, it is assumed that the optical axis L of the objective lens 140 is the Z direction, the plane orthogonal to the optical axis L is the XY plane, and the tilt information of the mounting surface 131a of the stage 131 with respect to the XY plane is calculated. . In the description of each step and the drawings, only the inclination occurring in the X direction is mentioned, but the inclination occurring in the Y direction can be calculated by the same processing.

ステージ131の傾斜情報を算出する際には、被写体Sとして、透過型の光学評価用チャート(テストチャート)等のように平面性が保証された物体を用いることが好ましい。平面性が保証された被写体Sを用いることにより、被写体Sが写った画像に基づいて算出された傾斜情報を、そのまま、載置面131aの傾斜情報として使用することができるからである。被写体Sとしてテストチャートを用いる場合、該チャートに形成されるパターンは特に限定されず、汎用のチャートを用いることができる。以下においては、一例として、図6に示すパターンが形成された被写体Sを用いるものとして説明する。   When calculating the tilt information of the stage 131, it is preferable to use, as the subject S, an object with guaranteed flatness, such as a transmission optical evaluation chart (test chart). This is because by using the subject S with guaranteed flatness, the tilt information calculated based on the image in which the subject S is captured can be used as it is as the tilt information of the placement surface 131a. When a test chart is used as the subject S, the pattern formed on the chart is not particularly limited, and a general-purpose chart can be used. In the following description, it is assumed that the subject S on which the pattern shown in FIG. 6 is formed is used as an example.

まず、ステップS10において、アライメント装置20は、画像取得部21によりステージ131上に載置された被写体Sを撮像し、観察光学系104の視野Vに入る被写体Sの画像を取得する。この際、制御部23は、レボルバ142に設けられたエンコーダの出力値を顕微鏡装置10から受け取り、該エンコーダの出力値をもとに、使用中の対物レンズ140の開口数、倍率、及び該倍率に基づく像倍率等のパラメータを、パラメータ記憶部241から取得する。   First, in step S <b> 10, the alignment apparatus 20 captures an image of the subject S placed on the stage 131 by the image acquisition unit 21 and acquires an image of the subject S that enters the field of view V of the observation optical system 104. At this time, the control unit 23 receives the output value of the encoder provided in the revolver 142 from the microscope apparatus 10, and based on the output value of the encoder, the numerical aperture, the magnification, and the magnification of the objective lens 140 in use The parameter such as the image magnification based on is acquired from the parameter storage unit 241.

続くステップS11において、合焦領域検出部231は、ステップS10において取得された画像内から合焦領域を検出する。図7は、合焦領域検出部231が実行する合焦領域検出処理を示すフローチャートである。   In subsequent step S11, the focus area detection unit 231 detects a focus area from the image acquired in step S10. FIG. 7 is a flowchart showing a focus area detection process executed by the focus area detection unit 231.

図7に示すステップS111において、合焦領域検出部231は、対物レンズ140の開口数NA及び像倍率Bに基づいて、次式(1)によって与えられるカットオフ周波数Fcを算出する。
式(1)において、符号λは被写体Sに照射される光の波長(例えば550nm)を示す。
In step S111 shown in FIG. 7, the in-focus area detection unit 231 calculates a cutoff frequency Fc given by the following equation (1) based on the numerical aperture NA and the image magnification B of the objective lens 140.
In the formula (1), the symbol λ indicates the wavelength of light irradiated on the subject S (for example, 550 nm).

続くステップS112において、合焦領域検出部231は、ステップS10において取得された視野Vの画像から、ステップS111において算出したカットオフ周波数Fcよりも高い周波数成分を除去する。より詳細には、合焦領域検出部231は、ステップS111において算出したカットオフ周波数と、撮像部211に設けられた撮像素子211aの画素ピッチとに基づき、ハミング(Hamming)窓等を用いて、公知の手法によりフィルタ設計を行う。そして、視野Vの画像に対してフーリエ変換を施すことにより周波数空間画像を生成し、この周波数空間画像に設計したフィルタを適用することにより、高周波成分をカットする。その後、該周波数空間画像にフーリエ逆変換を施すことにより、ノイズが除去された画像が得られる。   In subsequent step S112, the in-focus area detection unit 231 removes a frequency component higher than the cutoff frequency Fc calculated in step S111 from the image of the visual field V acquired in step S10. More specifically, the focusing area detection unit 231 uses a Hamming window or the like based on the cutoff frequency calculated in step S111 and the pixel pitch of the imaging element 211a provided in the imaging unit 211. Filter design is performed by a known method. And a frequency space image is produced | generated by performing a Fourier transform with respect to the image of the visual field V, and the high frequency component is cut by applying the filter designed to this frequency space image. Thereafter, an inverse Fourier transform is performed on the frequency space image to obtain an image from which noise is removed.

続くステップS113において、合焦領域検出部231は、高周波成分が除去された画像M1を、複数の小領域に分割する。図8は、視野Vが写った画像M1を16個の小領域m1〜m16に分割した例を示す模式図である。なお、画像M1の分割数は16個に限定されない。分割数を多くするほど、傾斜情報の算出精度を向上させることができるが、演算量も増加するため、ハードウェアの演算速度や要求される精度等を考慮して、分割数を適宜決定すれば良い。   In subsequent step S113, the in-focus area detection unit 231 divides the image M1 from which the high frequency component has been removed into a plurality of small areas. FIG. 8 is a schematic diagram illustrating an example in which the image M1 in which the field of view V is captured is divided into 16 small regions m1 to m16. Note that the number of divisions of the image M1 is not limited to 16. Increasing the number of divisions can improve the calculation accuracy of the slope information, but the amount of computation also increases. Therefore, if the number of divisions is appropriately determined in consideration of the computation speed of the hardware, required accuracy, etc. good.

続くステップS114において、合焦領域検出部231は、各小領域m1〜m16における合焦度を評価するための評価値を算出する。以下、この評価値のことを、画像評価値という。画像評価値としては公知の種々の評価値を用いることができ、実施の形態1においては、一例として、エッジ強度に基づく評価値を用いる。具体的には、合焦領域検出部231は、各小領域m1〜m16にソーベル(Sobel)フィルタ処理を施すことにより、X方向及びY方向におけるエッジ(以下、横エッジ及び縦エッジともいう)を抽出する。図9は、一例として、図8に示す小領域m3に対し、横エッジを抽出するソーベルフィルタSbxを適用して得られたエッジ画像m3(x)と、縦エッジを抽出するソーベルフィルタSbyを適用して得られたエッジ画像m3(y)とを示す模式図である。 In subsequent step S114, the focus area detection unit 231 calculates an evaluation value for evaluating the focus degree in each of the small areas m1 to m16. Hereinafter, this evaluation value is referred to as an image evaluation value. Various known evaluation values can be used as the image evaluation value. In Embodiment 1, for example, an evaluation value based on edge strength is used. Specifically, the focus area detection unit 231 performs Sobel filter processing on each of the small areas m1 to m16, thereby providing edges in the X direction and Y direction (hereinafter also referred to as horizontal edges and vertical edges). Extract. 9, as an example, with respect to the small area m3 shown in FIG. 8, obtained by applying the Sobel filter Sb x for extracting the horizontal edge edge image m3 and (x), Sobel filter for extracting vertical edges is a schematic diagram showing an edge image m3 (y) obtained by applying a sb y.

合焦領域検出部231は、各小領域m1〜m16に対し、エッジ画像内の画素値(即ち、エッジ強度)を当該エッジ画像内の画素値の最大値で正規化する。例えば、ある小領域のX方向におけるエッジ画像内の画素pn(n=1〜N、Nは当該エッジ画像の画素数)の画素値(エッジ強度)をEx(pn)、当該エッジ画像内の画素値の最大値をExmaxとすると、正規化後の画素pnの画素値Ex(pn)’は次式(2)によって与えられる。
Ex(pn)’=Ex(pn)/Exmax …(2)
The focused area detection unit 231 normalizes the pixel value (that is, edge strength) in the edge image with the maximum value of the pixel value in the edge image for each of the small areas m1 to m16. For example, the pixel value (edge intensity) of the pixel pn (n = 1 to N, N is the number of pixels of the edge image) in the edge image in the X direction of a certain small region is set to Ex (p n ), When the maximum value of the pixel values and Ex max, pixel values Ex of the pixel p n of the normalized (p n) 'is given by the following equation (2).
Ex (p n ) ′ = Ex (p n ) / Ex max (2)

そして、この正規化後の画素値Ex(pn)’の平均値を、次式(3)で与えられる画像評価値EXとする。
Then, the average value of the normalized pixel value Ex (p n ) ′ is set as an image evaluation value EX given by the following equation (3).

当該小領域のY方向における画像評価値EYも、Y方向におけるエッジ画像の画素値を用いて、同様にして算出される。
なお、エッジの抽出方法は、上述したソーベルフィルタを用いる方法に限定されず、LOGフィルタ等、公知のエッジ抽出フィルタを用いても良い。また、画像評価値の算出方法についても、式(3)に示す方法に限定されない。
The image evaluation value EY in the Y direction of the small area is similarly calculated using the pixel value of the edge image in the Y direction.
Note that the edge extraction method is not limited to the method using the Sobel filter described above, and a known edge extraction filter such as a LOG filter may be used. Further, the calculation method of the image evaluation value is not limited to the method shown in the formula (3).

続くステップS115において、合焦領域検出部231は、ステップS114において算出した各小領域m1〜m16のX方向及びY方向における画像評価値EX、EYに基づいて、合焦領域を選択する。   In subsequent step S115, the focus area detection unit 231 selects a focus area based on the image evaluation values EX and EY in the X direction and the Y direction of the small areas m1 to m16 calculated in step S114.

図10は、合焦領域の選択方法を説明するための模式図である。図10に示す画像M1の下方に示すグラフは、一例として、画像M1の上から2行目の小領域m5〜m8(太枠で囲んだ部分)のX方向における画像評価値EXを示す。なお、当該グラフにプロットした点のX座標は、各小領域m5〜m8の中心座標である。また、画像M1の右方に示すグラフは、一例として、画像M1の左から3列目の小領域m3、m7、m11、m15(太枠で囲んだ部分)のY方向における画像評価値EYを示す。なお、当該グラフにプロットした点のY座標は、各小領域m3、m7、m11、m15の中心座標である。   FIG. 10 is a schematic diagram for explaining a method of selecting a focus area. The graph shown below the image M1 shown in FIG. 10 shows, as an example, the image evaluation value EX in the X direction of the small regions m5 to m8 (portions surrounded by a thick frame) in the second row from the top of the image M1. Note that the X coordinates of the points plotted on the graph are the center coordinates of the small regions m5 to m8. The graph shown on the right side of the image M1 shows, as an example, the image evaluation value EY in the Y direction of the small regions m3, m7, m11, and m15 (portions surrounded by a thick frame) in the third column from the left of the image M1. Show. The Y coordinates of the points plotted on the graph are the center coordinates of the small areas m3, m7, m11, and m15.

合焦領域検出部231は、図10に例示する画像評価値EX、EYのグラフを、小領域m1〜m16の行ごと、列ごとに作成し、画像評価値EX、EYを閾値Tx、Tyとそれぞれ比較する。ここで、X方向の閾値Txは、画像M1内の全画素のX方向におけるエッジ強度(エッジ画像の画素値)の平均値または標準偏差をもとに設定される。同様に、Y方向の閾値Tyは、画像M1内の全画素のY方向におけるエッジ強度(エッジ画像の画素値)の平均値または標準偏差をもとに設定される。   The focused area detection unit 231 creates a graph of the image evaluation values EX and EY illustrated in FIG. 10 for each row and column of the small areas m1 to m16, and sets the image evaluation values EX and EY as threshold values Tx and Ty. Compare each. Here, the threshold value Tx in the X direction is set based on the average value or standard deviation of the edge intensity (pixel value of the edge image) in the X direction of all the pixels in the image M1. Similarly, the threshold value Ty in the Y direction is set based on the average value or standard deviation of the edge strength (pixel value of the edge image) in the Y direction of all the pixels in the image M1.

合焦領域検出部231は、画像評価値EXが閾値Txよりも大きく、且つ画像評価値EYが閾値Tyよりも大きい小領域を、合焦領域として選択する。例えば、図10の場合、小領域m7の画像評価値EX、EYが、閾値Tx、Tyよりもそれぞれ大きいので、合焦領域として選択される。   The focus area detection unit 231 selects a small area having the image evaluation value EX larger than the threshold value Tx and the image evaluation value EY larger than the threshold value Ty as the focus area. For example, in the case of FIG. 10, since the image evaluation values EX and EY of the small area m7 are larger than the threshold values Tx and Ty, they are selected as in-focus areas.

このような評価の結果、以下においては図11に示すように、画像M1のうち、左から2列目及び3列目に含まれる小領域m2、m3、m6、m7、m10、m11、m14、m15が、合焦領域として検出されたものとして説明する。
合焦領域の検出後、アライメント装置20の動作はメインルーチンに戻る。
As a result of such evaluation, in the following, as shown in FIG. 11, small regions m2, m3, m6, m7, m10, m11, m14 included in the second and third columns from the left in the image M1, A description will be given assuming that m15 is detected as the in-focus area.
After the focus area is detected, the operation of the alignment device 20 returns to the main routine.

ステップS11に続くステップS12において、制御部23は、画像M1を分割した全ての小領域m1〜m16が合焦領域であったか否かを判定する。全ての小領域m1〜m16が合焦領域であった場合(ステップS12:Yes)、アライメント装置20は、被写体S、即ち、ステージ131の載置面131aはXY平面に平行(光軸Lと直交)になっているものと判断し、動作を終了する。   In step S12 following step S11, the control unit 23 determines whether or not all the small areas m1 to m16 obtained by dividing the image M1 are in-focus areas. When all the small areas m1 to m16 are in-focus areas (step S12: Yes), the alignment apparatus 20 causes the subject S, that is, the stage 131a of the stage 131 to be parallel to the XY plane (perpendicular to the optical axis L). ) And the operation is terminated.

一方、小領域m1〜m16のいずれかが合焦領域でなかった場合(ステップS12:No)、傾斜情報算出部232は、パラメータ記憶部241から各種パラメータを読み出し、ステップS11において検出された合焦領域の位置及び幅を用いて、被写体S(載置面131a)の傾斜情報を算出する(ステップS13)。図12は、傾斜情報算出部232が実行する傾斜情報算出処理を示すフローチャートである。また、図13〜図19は、傾斜情報算出処理を説明するための模式図である。   On the other hand, if any of the small areas m1 to m16 is not the in-focus area (step S12: No), the inclination information calculation unit 232 reads various parameters from the parameter storage unit 241, and the in-focus detected in step S11. The inclination information of the subject S (mounting surface 131a) is calculated using the position and width of the region (step S13). FIG. 12 is a flowchart showing the inclination information calculation process executed by the inclination information calculation unit 232. 13 to 19 are schematic diagrams for explaining the inclination information calculation processing.

このうち、図13(a)は、対物レンズ140と被写体Sとの位置関係をXZ平面において示し、図13(b)は、当該位置関係の場合に対物レンズ140の視野に入る被写体Sの画像M1をXY平面において示している。図14〜図18についても同様である。なお、図13〜図18においては、理解を容易にするために、被写体Sを厚みのない平面とみなして該被写体S及び視野Vを図示している。   13A shows the positional relationship between the objective lens 140 and the subject S in the XZ plane, and FIG. 13B shows the image of the subject S that enters the field of view of the objective lens 140 in the case of the positional relationship. M1 is shown in the XY plane. The same applies to FIGS. 14 to 18. In FIGS. 13 to 18, the subject S and the field of view V are illustrated on the assumption that the subject S is a plane having no thickness in order to facilitate understanding.

また、図13(a)に示すように、以下においては、観察光学系104(対物レンズ140)の視野サイズをFov(μm)、被写界深度をDOF(μm)、観察光学系104の合焦面と被写体Sとのなす角度を傾斜角度α、視野Vに含まれる被写体Sの領域に生じている傾斜の高さをz(μm)、視野サイズFovに対応する画像M1のサイズ(画像サイズ)をWimage(pixel)、画像M1内の合焦領域Rfocus1のX方向及びY方向における幅をそれぞれWx(pixel)、WY(pixel)とする。このうち、顕微鏡装置10及び撮像部211のスペックに依存するパラメータ(視野サイズFov、被写界深度DOF、画像サイズWimage)は、パラメータ記憶部241に予め記憶されており、必要に応じて読み出される。 Further, as shown in FIG. 13A, in the following, the field size of the observation optical system 104 (objective lens 140) is Fov (μm), the depth of field is DOF (μm), and the observation optical system 104 is combined. The angle between the focal plane and the subject S is the tilt angle α, the height of the tilt occurring in the region of the subject S included in the field of view V is z (μm), and the size of the image M1 corresponding to the field size Fov (image size) ) Is W image (pixel), and the width of the in-focus region R focus1 in the image M1 in the X direction and Y direction is W x (pixel) and W Y (pixel), respectively. Among these, parameters (field size Fov, depth of field DOF, image size W image ) depending on the specifications of the microscope apparatus 10 and the imaging unit 211 are stored in advance in the parameter storage unit 241 and read out as necessary. It is.

まず、ステップS131において、傾斜情報算出部232は、ステップS11において検出された合焦領域Rfocus1の位置から、被写体Sの傾斜方向を特定する。ここで、図13に示すように、XZ平面における被写体Sの傾斜方向は、右上がり(図13(a))及び右下がり(図14(a))の2方向が考えられる。 First, in step S131, the tilt information calculation unit 232 specifies the tilt direction of the subject S from the position of the focus area R focus1 detected in step S11. Here, as shown in FIG. 13, the inclination direction of the subject S in the XZ plane can be considered to be two directions, that is, upward (FIG. 13 (a)) and downward (FIG. 14 (a)).

また、対物レンズ140の被写界深度DOFは、合焦面を中心とするZ方向の所定の範囲である。視野Vのうち、この被写界深度DOFに含まれる領域Rが、画像M1の合焦領域として検出される。このため、図13(a)及び図14(a)に示す方向のいずれに被写体Sが傾斜していたとしても、画像M1においては同一の領域(小領域)が合焦領域Rfocus1として検出される。 The depth of field DOF of the objective lens 140 is a predetermined range in the Z direction with the focal plane as the center. Of the field of view V, a region R 0 included in the depth of field DOF is detected as a focused region of the image M1. Therefore, even if the subject S is inclined in any of the directions shown in FIGS. 13A and 14A, the same area (small area) is detected as the focus area R focus1 in the image M1. The

そこで、傾斜情報算出部232は、撮像制御部22から顕微鏡装置10に制御信号を送信させ、対物レンズ140と被写体SとのZ方向における距離を僅かに変化させる。例えば、対物レンズ140を下方(マイナスZ方向)に移動させる、或いはステージ131を上方(プラスZ方向)に移動させることにより対物レンズ140と被写体Sとを近づけた場合、図15に示すように、被写体Sが右上がりに傾斜していれば、画像M1における合焦領域Rfocus1は図の左方(マイナスX方向)に移動する。一方、図16に示すように、被写体Sが右下がりに傾斜していれば、画像M1における合焦領域Rfocus1は図の右方(プラスX方向)に移動する。 Therefore, the tilt information calculation unit 232 causes the imaging control unit 22 to transmit a control signal to the microscope apparatus 10 and slightly changes the distance in the Z direction between the objective lens 140 and the subject S. For example, when the objective lens 140 and the subject S are brought closer by moving the objective lens 140 downward (minus Z direction) or by moving the stage 131 upward (plus Z direction), as shown in FIG. If the subject S is inclined upward, the focus area R focus1 in the image M1 moves to the left (minus X direction) in the figure. On the other hand, as shown in FIG. 16, if the subject S is inclined downwardly to the right, the focus area R focus1 in the image M1 moves to the right (plus X direction) in the figure.

また、例えば、対物レンズ140を上方(プラスZ方向)に移動させる、或いはステージ131を下方(マイナスZ方向)に移動させることにより対物レンズ140と被写体Sとを遠ざけた場合、図17に示すように、被写体Sが右上がりに傾斜していれば、画像M1における合焦領域Rfocus1は図の右方(プラスX方向)に移動する。一方、図18に示すように、被写体Sが右下がりに傾斜していれば、画像M1における合焦領域Rfocus1は図の左方(マイナスX方向)に移動する。 Further, for example, when the objective lens 140 and the subject S are moved away by moving the objective lens 140 upward (plus Z direction) or by moving the stage 131 downward (minus Z direction), as shown in FIG. On the other hand, if the subject S is inclined upward, the focus area R focus1 in the image M1 moves to the right (plus X direction) in the figure. On the other hand, as shown in FIG. 18, if the subject S is inclined downwardly to the right, the focus area R focus1 in the image M1 moves to the left (minus X direction) in the figure.

対物レンズ140と被写体Sとの間の距離を変化させた際の合焦領域Rfocus1の検出は、ステップS11と同様に行えば良い。傾斜情報算出部232は、相対的な距離を変化させる前後の合焦領域Rfocus1の位置を比較することにより、合焦領域Rfocus1の移動方向を取得し、該移動方向に基づいて被写体Sの傾斜方向を特定する。なお、傾斜方向を特定した後は、対物レンズ140と被写体Sとの間の距離をもとに戻しても良い。 The detection of the focus area R focus1 when the distance between the objective lens 140 and the subject S is changed may be performed in the same manner as in step S11. The inclination information calculation unit 232 acquires the moving direction of the focusing area R focus1 by comparing the positions of the focusing area R focus1 before and after changing the relative distance, and based on the moving direction, the inclination of the subject S Specify the tilt direction. After specifying the tilt direction, the distance between the objective lens 140 and the subject S may be returned to the original.

傾斜情報算出部232は、同様にして、YZ平面における被写体Sの傾斜方向を特定する。なお、図11に示すように、画像M1から検出された合焦領域Rfocus1がY方向全体に分布している場合、Y方向については傾斜なしと判断しても良い。 Similarly, the inclination information calculation unit 232 specifies the inclination direction of the subject S in the YZ plane. As shown in FIG. 11, when the focus area R focus1 detected from the image M1 is distributed over the entire Y direction, it may be determined that there is no inclination in the Y direction.

続くステップS132において、傾斜情報算出部232は、ステップS11において検出された合焦領域の幅WX、WYから、被写体SのX方向及びY方向における傾斜角度αをそれぞれ算出する。より詳細には、傾斜情報算出部232は、図13(b)に示す合焦領域Rfocus1の幅WXを次式(4)の幅WFocalに代入することにより、視野Vに生じているX方向の傾斜量z(X方向における視野Vの一端と他端との間のZ座標の差分)を算出する。
In the subsequent step S132, the inclination information calculation unit 232 calculates the inclination angle α of the subject S in the X direction and the Y direction from the widths W X and W Y of the focus area detected in step S11. More specifically, the inclination information calculation unit 232 generates the visual field V by substituting the width W X of the in-focus region R focus1 shown in FIG. 13B for the width W Focal of the following equation (4). A tilt amount z in the X direction (difference in the Z coordinate between one end and the other end of the visual field V in the X direction) is calculated.

続いて、この傾斜量zを次式(5)に代入することにより、被写体SのX方向における傾斜角度αを算出する。
Subsequently, the inclination angle α of the subject S in the X direction is calculated by substituting the inclination amount z into the following equation (5).

同様にして、傾斜情報算出部232は、合焦領域Rfocus1の幅WYを式(4)の幅WFocalに代入することにより、視野Vに生じているY方向の傾斜量zを算出し、この傾斜量zを式(5)に代入することにより、被写体SのY方向における傾斜角度αを算出する。 Similarly, the tilt information calculation unit 232 calculates the tilt amount z in the Y direction generated in the field of view V by substituting the width W Y of the focus area R focus1 into the width W Focal of Expression (4). Then, by substituting the inclination amount z into the equation (5), the inclination angle α of the subject S in the Y direction is calculated.

続くステップS133において、傾斜情報算出部232は、合焦領域Rfocus1の位置及び幅から、傾斜支点のずれ量を算出する。ここで、傾斜支点とは合焦領域Rfocus1の中心位置であり、被写体Sと合焦面とが交差する点に対応する。より詳細には、傾斜情報算出部232は、図19に示すように、合焦領域Rfocus1の中心点Pfocus1及び画像M1の中心点PM1を検出し、これらの中心点Pfocus1、PM1間の距離dをピクセル単位で算出する。そして、傾斜情報算出部232は、合焦領域Rfocus1の中心点Pfocus1が画像M1の中心点PM1よりもプラスX方向(又はプラスY方向)側に存在する場合、距離dの符号をプラスとし、マイナスX方向(又はマイナスY方向)側に存在する場合、距離dの符号をマイナスとする。この符号付きの距離dを、傾斜支点のずれ量とする。 In subsequent step S133, the tilt information calculation unit 232 calculates the shift amount of the tilt fulcrum from the position and width of the focus area R focus1 . Here, the tilt fulcrum is the center position of the focusing area R focus1 and corresponds to the point where the subject S and the focusing plane intersect. More specifically, gradient information calculating unit 232, as shown in FIG. 19, and detects the center point P M1 of the center point P Focus1 and image M1 of focus area R Focus1, these center points P focus1, P M1 The distance d between them is calculated in units of pixels. The tilt information calculator 232, when the center point P Focus1 the focus area R Focus1 exists in the positive X direction (or positive Y direction) than the center point P M1 images M1, the sign of the distance d plus And the sign of the distance d is negative if it exists on the negative X direction (or negative Y direction) side. This signed distance d is the amount of deviation of the tilt fulcrum.

続くステップS134において、傾斜情報算出部232は、ステップS131〜S133において取得した傾斜情報、即ち、傾斜方向、傾斜角度、及び傾斜支点のずれ量を、傾斜情報としてパラメータ記憶部241に記憶させる。
その後、アライメント装置20の動作はメインルーチンに戻る。
In subsequent step S134, the tilt information calculation unit 232 stores the tilt information acquired in steps S131 to S133, that is, the tilt direction, the tilt angle, and the shift amount of the tilt fulcrum in the parameter storage unit 241 as tilt information.
Thereafter, the operation of the alignment apparatus 20 returns to the main routine.

ステップS13に続くステップS14において、制御部23は、ステップS13において取得した傾斜情報を出力し、表示装置27に表示させる。傾斜情報の具体的な表示例としては、例えば、図20に示す傾斜特性マップが挙げられる。図20に示す傾斜特性マップは、ステップS134において記憶された傾斜情報に基づき、観察光学系104の視野Vに入る被写体S上の各XY座標における傾斜(合焦面からのずれ)をマッピングしたグラフである。ユーザは、このような傾斜特性マップ等を参照しながら、顕微鏡装置10に設けられた調節つまみ151を操作することにより、ステージ131の傾斜を調整する。
その後、アライメント装置20の動作は終了する。
In step S14 following step S13, the control unit 23 outputs the tilt information acquired in step S13 and causes the display device 27 to display the tilt information. As a specific display example of the inclination information, for example, an inclination characteristic map shown in FIG. The inclination characteristic map shown in FIG. 20 is a graph in which the inclination (deviation from the focal plane) at each XY coordinate on the subject S entering the field of view V of the observation optical system 104 is mapped based on the inclination information stored in step S134. It is. The user adjusts the inclination of the stage 131 by operating an adjustment knob 151 provided in the microscope apparatus 10 while referring to such an inclination characteristic map.
Thereafter, the operation of the alignment apparatus 20 ends.

以上説明したように、実施の形態1によれば、顕微鏡装置10において被写体Sを写した画像M1のみから、対物レンズ140と被写体Sとの間における傾斜情報を取得することができる。即ち、アライメントのための専用機構を顕微鏡装置10に設けることなく、簡素な装置構成で、詳細且つ精度の良い傾斜情報を取得することができる。従って、該傾斜情報に基づいてステージ131の傾斜を調整することで、高品質な顕微鏡画像を取得することが可能となる。   As described above, according to the first embodiment, the tilt information between the objective lens 140 and the subject S can be acquired only from the image M1 in which the subject S is captured in the microscope apparatus 10. That is, detailed and accurate tilt information can be acquired with a simple apparatus configuration without providing a dedicated mechanism for alignment in the microscope apparatus 10. Therefore, by adjusting the tilt of the stage 131 based on the tilt information, a high-quality microscope image can be acquired.

また、実施の形態1によれば、傾斜特性マップ等の詳細な傾斜情報を表示装置27に表示するので、ユーザは、調整方向や調整角度を迷うことなく、ステージ131の傾斜調整を行うことができる。   Further, according to the first embodiment, since detailed tilt information such as a tilt characteristic map is displayed on the display device 27, the user can adjust the tilt of the stage 131 without being confused about the adjustment direction and the adjustment angle. it can.

(変形例1)
次に、本発明の実施の形態1の変形例1について説明する。
図5に示すステップS11における合焦領域検出処理は、上述した処理に限定されない。例えば、工場出荷時のように、対物レンズ140とステージ131との間に傾斜が生じていない状態が保証されているときに被写体Sを撮像することにより、基準となる画像(以下、単に基準画像という)を取得し、該顕微鏡システム1の使用時に、同じ被写体Sを写した画像と基準画像とを比較することによって合焦領域を検出しても良い。
(Modification 1)
Next, a first modification of the first embodiment of the present invention will be described.
The focus area detection process in step S11 shown in FIG. 5 is not limited to the process described above. For example, when a state in which no tilt is generated between the objective lens 140 and the stage 131 is guaranteed as in a factory shipment, the subject S is imaged to obtain a reference image (hereinafter simply referred to as a reference image). And when the microscope system 1 is used, the in-focus area may be detected by comparing an image of the same subject S with a reference image.

図21は、本変形例1における合焦領域検出処理を示すフローチャートである。なお、パラメータ記憶部241には、工場出荷時に被写体Sを撮像することにより取得した基準画像の画像データが予め記憶されているものとする。   FIG. 21 is a flowchart showing a focus area detection process according to the first modification. It is assumed that the parameter storage unit 241 stores in advance image data of a reference image acquired by imaging the subject S at the time of factory shipment.

まず、ステップS121において、合焦領域検出部231は、パラメータ記憶部241に記憶されている画像データをもとに、基準画像を取得する。この際、合焦領域検出部231は、顕微鏡装置10における撮像倍率をもとに基準画像を拡大又は縮小することにより、ステップS10において取得した観察中の画像(以下、観察画像という)に対して、基準画像のサイズを合わせる。   First, in step S <b> 121, the focus area detection unit 231 acquires a reference image based on the image data stored in the parameter storage unit 241. At this time, the in-focus area detection unit 231 enlarges or reduces the reference image based on the imaging magnification in the microscope apparatus 10, thereby performing an observation on the image acquired in step S10 (hereinafter referred to as an observation image). Adjust the size of the reference image.

続くステップS122において、合焦領域検出部231は、観察画像と基準画像との間で位置合わせを行い、視野の位置を合わせる。なお、位置合わせの手法としては、位相限定相関法等、公知の手法を用いることができる。   In subsequent step S122, the in-focus area detection unit 231 performs alignment between the observation image and the reference image, and aligns the position of the visual field. As a positioning method, a known method such as a phase only correlation method can be used.

ステップS123において、合焦領域検出部231は、図22に示すように、観察画像M1及び基準画像Mbaseの各々を複数の小領域に分割する。例えば、図22においては、観察画像M1及び基準画像Mbaseを、それぞれ、16個の小領域m1〜m16、m1’〜m16’に分割している。 In step S123, the focus area detection unit 231 divides each of the observation image M1 and the reference image Mbase into a plurality of small areas as shown in FIG. For example, in FIG. 22, the observation image M1 and the reference image M base, respectively, 16 small regions M1 to M16, are divided into m1'~m16 '.

ステップS124において、合焦領域検出部231は、各小領域m1〜m16、m1’〜m16’の合焦度を評価するための画像評価値を算出する。画像評価値の算出方法は、実施の形態1と同様である(図7のステップS114参照)。   In step S124, the focus area detection unit 231 calculates an image evaluation value for evaluating the focus degrees of the small areas m1 to m16 and m1 'to m16'. The calculation method of the image evaluation value is the same as that in the first embodiment (see step S114 in FIG. 7).

ステップS125において、合焦領域検出部231は、観察画像M1と基準画像Mbas
eとの間で対応する小領域(小領域m1とm1’、小領域m2とm2’、…)の画像評価値同士を比較し、該比較の結果に基づいて合焦領域を選択する。詳細には、合焦領域検出部231は、対応する小領域の間で画像評価値の差分を算出すると共に、この差分の全小領域における平均値を算出する。そして、画像評価値の差分が差分の平均値以下となる小領域を、合焦領域として選択する。
In step S125, the focus area detection unit 231 performs the observation image M1 and the reference image Mbas.
The image evaluation values of the corresponding small areas (small areas m1 and m1 ′, small areas m2 and m2 ′,...) are compared with e, and the focus area is selected based on the comparison result. Specifically, the focus area detection unit 231 calculates a difference in image evaluation values between corresponding small areas, and calculates an average value of the differences in all small areas. Then, a small area in which the difference between the image evaluation values is equal to or less than the average value of the differences is selected as the focusing area.

(実施の形態2)
次に、本発明の実施の形態2について説明する。
図23は、実施の形態2に係る顕微鏡システムの構成を示すブロック図である。図23に示すように、実施の形態2に係る顕微鏡システム2は、顕微鏡装置10及びアライメント装置30を備える。このうち、顕微鏡装置10の構成及び動作は、実施の形態1と同様である(図2参照)。
(Embodiment 2)
Next, a second embodiment of the present invention will be described.
FIG. 23 is a block diagram illustrating a configuration of a microscope system according to the second embodiment. As shown in FIG. 23, the microscope system 2 according to the second embodiment includes a microscope apparatus 10 and an alignment apparatus 30. Among these, the configuration and operation of the microscope apparatus 10 are the same as those in the first embodiment (see FIG. 2).

アライメント装置30は、図1に示すアライメント装置20に対し、傾斜調整制御部31をさらに備える。傾斜調整制御部31以外のアライメント装置30の各部の構成及び動作は、実施の形態1と同様である(図1参照)。   The alignment apparatus 30 further includes an inclination adjustment control unit 31 with respect to the alignment apparatus 20 shown in FIG. The configuration and operation of each unit of the alignment apparatus 30 other than the inclination adjustment control unit 31 are the same as those in the first embodiment (see FIG. 1).

傾斜調整制御部31は、傾斜情報算出部232により算出された傾斜情報に基づいて、顕微鏡装置10に設けられた調節つまみ駆動部152に制御信号を出力し、ステージ131の傾斜を調整させる。   The tilt adjustment control unit 31 outputs a control signal to the adjustment knob drive unit 152 provided in the microscope apparatus 10 based on the tilt information calculated by the tilt information calculation unit 232 to adjust the tilt of the stage 131.

次に、アライメント装置30の動作について説明する。図24は、アライメント装置30の動作を示すフローチャートである。なお、図24に示すステップS10〜S14は、実施の形態1と同様である(図5参照)。   Next, the operation of the alignment apparatus 30 will be described. FIG. 24 is a flowchart showing the operation of the alignment apparatus 30. Note that steps S10 to S14 shown in FIG. 24 are the same as those in the first embodiment (see FIG. 5).

ステップS14に続くステップS15において、傾斜調整制御部31は、傾斜情報算出部232により算出された傾斜情報(傾斜方向、傾斜角度、傾斜支点のずれ量)をパラメータ記憶部241から読み出し、該傾斜情報に基づく制御信号を生成して顕微鏡装置10に出力することにより、ステージ131の傾斜を調整する。   In step S15 following step S14, the inclination adjustment control unit 31 reads out the inclination information (inclination direction, inclination angle, and inclination fulcrum deviation amount) calculated by the inclination information calculation unit 232 from the parameter storage unit 241, and the inclination information Is generated and output to the microscope apparatus 10 to adjust the tilt of the stage 131.

より詳細には、傾斜調整制御部31は、まず、視野Vの中心位置における被写体Sの傾斜方向及び傾斜角度を調整する。例えば、図13(a)に示すように、被写体Sが合焦面に対して右上がりの場合、調節つまみ駆動部152(図2参照)に制御信号を出力し、XZ面内においてステージ131を該ステージ131の中心(光軸Lが通る位置。以下、ステージ中心という)に対して時計回りに回転させる。反対に、図14(a)に示すように、被写体Sが合焦面に対して右下がりの場合、調節つまみ駆動部152に制御信号を出力し、XZ面内においてステージ131をステージ中心に対して反時計回りに回転させる。   More specifically, the tilt adjustment control unit 31 first adjusts the tilt direction and tilt angle of the subject S at the center position of the visual field V. For example, as shown in FIG. 13A, when the subject S moves up to the right with respect to the in-focus plane, a control signal is output to the adjustment knob driving unit 152 (see FIG. 2), and the stage 131 is moved in the XZ plane. The stage 131 is rotated clockwise with respect to the center of the stage 131 (position through which the optical axis L passes, hereinafter referred to as the stage center). On the other hand, as shown in FIG. 14A, when the subject S is lowered to the right with respect to the in-focus plane, a control signal is output to the adjustment knob driving unit 152, and the stage 131 is set to the center of the stage in the XZ plane. Rotate counterclockwise.

続いて、傾斜調整制御部31は、傾斜支点のずれ量に基づき、該ずれ量の符号と反対方向に、ずれ量の分だけステージ131を移動させる。例えば、X方向におけるずれ量の符号がプラスである場合、ステージ駆動部132に制御信号を出力し、ステージ131をマイナスX方向に移動させる。これにより、傾斜支点が観察光学系104の視野中心(即ち、光軸Lが通る位置)と一致し、適切な視野の合焦画像を取得することができるようになる。
なお、Y方向における調整方法も同様である。
Subsequently, the tilt adjustment control unit 31 moves the stage 131 in the direction opposite to the sign of the shift amount by the shift amount based on the shift amount of the tilt fulcrum. For example, when the sign of the amount of deviation in the X direction is positive, a control signal is output to the stage driving unit 132, and the stage 131 is moved in the negative X direction. Thereby, the tilt fulcrum coincides with the center of the visual field of the observation optical system 104 (that is, the position through which the optical axis L passes), and an in-focus image with an appropriate visual field can be acquired.
The adjustment method in the Y direction is the same.

以上説明したように、実施の形態2によれば、傾斜情報算出部232が算出した傾斜情報に基づいて、ステージ131の傾斜を容易且つ正確に調整することができる。従って、顕微鏡システム2において、高品質な顕微鏡観察画像を取得することが可能となる。   As described above, according to the second embodiment, the tilt of the stage 131 can be easily and accurately adjusted based on the tilt information calculated by the tilt information calculation unit 232. Therefore, the microscope system 2 can acquire a high-quality microscope observation image.

(変形例2)
次に、本発明の実施の形態2の変形例2について説明する。
上記実施の形態1及び実施の形態2においては、観察光学系104側を固定し、ステージ131側を調整することにより、観察光学系104の合焦面と被写体Sとの間に生じている傾斜を補正した。しかしながら、ステージ131側を固定し、観察光学系104側を調整することにより、両者間に生じている傾斜を補正しても良い。この場合、観察光学系104の傾斜を一体的に調整する傾斜調整機構を顕微鏡装置10に設けると良い。
(Modification 2)
Next, a second modification of the second embodiment of the present invention will be described.
In the first embodiment and the second embodiment, the inclination generated between the focusing surface of the observation optical system 104 and the subject S by fixing the observation optical system 104 side and adjusting the stage 131 side. Was corrected. However, the tilt occurring between the two may be corrected by fixing the stage 131 side and adjusting the observation optical system 104 side. In this case, the microscope apparatus 10 may be provided with a tilt adjustment mechanism that integrally adjusts the tilt of the observation optical system 104.

調整を行う際には、被写体Sが合焦面に対して右上がりの場合(図13(a)参照)、XZ面内において観察光学系104をイメージャ中心に対して反時計回りに回転させる。反対に、被写体Sが合焦面に対して右下がりの場合(図14(a)参照)、XZ面内において観察光学系104をイメージャ中心に対して時計回りとなるように回転させる。観察光学系104の傾斜の調整は、実施の形態1と同様にユーザが手動で行っても良いし、実施の形態2と同様に、傾斜調整機構に対する電気的な制御により自動で行っても良い。また、Y方向における調整方法も同様である。   When performing the adjustment, if the subject S is raised to the right with respect to the focal plane (see FIG. 13A), the observation optical system 104 is rotated counterclockwise with respect to the imager center in the XZ plane. On the other hand, when the subject S is lowered to the right with respect to the focal plane (see FIG. 14A), the observation optical system 104 is rotated in the XZ plane so as to be clockwise with respect to the imager center. The adjustment of the tilt of the observation optical system 104 may be performed manually by the user as in the first embodiment, or may be performed automatically by electrical control over the tilt adjustment mechanism as in the second embodiment. . The adjustment method in the Y direction is the same.

(実施の形態3)
次に、本発明の実施の形態3について説明する。
図25は、本発明の実施の形態3に係る顕微鏡システムの構成を示すブロック図である。図25に示すように、実施の形態3に係る顕微鏡システム3は、顕微鏡装置10及びアライメント装置40を備える。このうち、顕微鏡装置10の構成及び動作は実施の形態1と同様である(図2参照)。
(Embodiment 3)
Next, a third embodiment of the present invention will be described.
FIG. 25 is a block diagram showing a configuration of a microscope system according to Embodiment 3 of the present invention. As shown in FIG. 25, the microscope system 3 according to the third embodiment includes a microscope apparatus 10 and an alignment apparatus 40. Among these, the configuration and operation of the microscope apparatus 10 are the same as those in the first embodiment (see FIG. 2).

アライメント装置40は、実施の形態2に係るアライメント装置30における制御部23の代わりに制御部41を備える。制御部41以外のアライメント装置40の各部の構成及び動作は、実施の形態2と同様である(図23参照)。   The alignment apparatus 40 includes a control unit 41 instead of the control unit 23 in the alignment apparatus 30 according to the second embodiment. The configuration and operation of each part of the alignment apparatus 40 other than the control unit 41 are the same as those in the second embodiment (see FIG. 23).

制御部41は、図23に示す制御部23に対し、視野移動判定部411をさらに備える。視野移動判定部411は、合焦領域検出部231による合焦領域の検出結果に基づき、視野Vを移動させて再度撮像を行うべきか否かを判定する。なお、合焦領域検出部231及び傾斜情報算出部232の動作は、実施の形態2と同様である。   The control unit 41 further includes a visual field movement determination unit 411 with respect to the control unit 23 shown in FIG. The visual field movement determination unit 411 determines whether or not to perform imaging again by moving the visual field V based on the detection result of the focused region by the focused region detection unit 231. The operations of the focus area detection unit 231 and the inclination information calculation unit 232 are the same as those in the second embodiment.

次に、アライメント装置40の動作について説明する。図26は、アライメント装置40の動作を示すフローチャートである。なお、図26に示すステップS10及びS11は、実施の形態1と同様である。また、以下においては、ステップS10において、図27に示す画像M2が取得されたものとして説明する。図27は、視野V(図6参照)に入る被写体Sの領域が写った画像M2を複数の小領域に分割した状態を示している(図7のステップS113参照)。   Next, the operation of the alignment apparatus 40 will be described. FIG. 26 is a flowchart showing the operation of the alignment apparatus 40. Note that steps S10 and S11 shown in FIG. 26 are the same as those in the first embodiment. In the following description, it is assumed that the image M2 shown in FIG. 27 has been acquired in step S10. FIG. 27 shows a state in which the image M2 in which the area of the subject S entering the visual field V (see FIG. 6) is divided into a plurality of small areas (see step S113 in FIG. 7).

ステップS11に続くステップS31において、視野移動判定部411は、ステップS11における合焦領域の検出結果から、画像M2内を合焦領域と非合焦領域とに分類し、この分類結果に基づいて、被写体Sに対する観察光学系104の視野移動が必要であるか否かを判定する。   In step S31 following step S11, the visual field movement determination unit 411 classifies the inside of the image M2 into an in-focus area and an out-of-focus area from the detection result of the in-focus area in step S11, and based on the classification result, It is determined whether or not the visual field movement of the observation optical system 104 with respect to the subject S is necessary.

図28は、視野移動判定部411が実行する視野移動要否の判定処理を示すフローチャートである。また、図29〜図31は、視野移動要否の判定処理を説明するための模式図である。   FIG. 28 is a flowchart showing the determination processing of whether or not the visual field movement is necessary, which is executed by the visual field movement determination unit 411. FIGS. 29 to 31 are schematic diagrams for explaining the determination process of whether or not the visual field movement is necessary.

まず、ステップS311において、視野移動判定部411は、画像M2のX方向における非合焦領域の位置を判定する。より詳細には、視野移動判定部411は、図27に示すように、合焦領域検出部231により算出された各小領域の画像評価値EXから、小領域の行ごとに、X方向における画像評価値分布グラフを作成する。そして、この画像評価値分布グラフと閾値Txとの交点を求める。なお、図27に示す画像評価値EXのグラフは、画像M2の上から2行目の小領域における画像評価値EXの分布を示している。   First, in step S311, the visual field movement determination unit 411 determines the position of the out-of-focus area in the X direction of the image M2. More specifically, as shown in FIG. 27, the field-of-view movement determination unit 411 determines the image in the X direction for each row of the small region from the image evaluation value EX of each small region calculated by the focused region detection unit 231. Create an evaluation value distribution graph. And the intersection of this image evaluation value distribution graph and threshold value Tx is calculated | required. The graph of the image evaluation value EX shown in FIG. 27 shows the distribution of the image evaluation value EX in the small area in the second row from the top of the image M2.

視野移動判定部411は、交点の数がゼロまたは偶数個である場合、画像M2の左右両端に非合焦領域が位置しているものと判定する。反対に、図27の2行目のように、交点の数が奇数個(例えば1個)である場合、画像M2の片側にのみ非合焦領域が位置しているものと判定する。   When the number of intersections is zero or an even number, the visual field movement determination unit 411 determines that the out-of-focus areas are located at the left and right ends of the image M2. On the other hand, as shown in the second row of FIG. 27, when the number of intersection points is an odd number (for example, one), it is determined that the out-of-focus area is located only on one side of the image M2.

続くステップS312において、視野移動判定部411は、ステップS311と同様にして、画像M2のY方向における非合焦領域の位置を判定する。即ち、小領域の列ごとに画像評価値分布グラフを作成し、該グラフと閾値Tyとの交点の数に基づいて、非合焦領域の位置を判定する。なお、図27に示す画像評価値EYのグラフは、画像M2の左から3列目の小領域における画像評価値EYの分布を示している。   In subsequent step S312, the visual field movement determination unit 411 determines the position of the out-of-focus region in the Y direction of the image M2, similarly to step S311. That is, an image evaluation value distribution graph is created for each column of small regions, and the position of the out-of-focus region is determined based on the number of intersections between the graph and the threshold value Ty. Note that the graph of the image evaluation value EY shown in FIG. 27 shows the distribution of the image evaluation value EY in the small region in the third column from the left of the image M2.

その結果、画像M2の場合、図29に示すように、非合焦領域Rnon-focus2がマイナスX方向の端部にのみ位置しており、合焦領域Rfocus2がプラスX方向の端部に偏っていることがわかる。なお、非合焦領域の位置の判定方法は、上述した方法に限定されず、小領域の行ごと又は列ごとに、非合焦領域が合焦領域を挟むように位置しているか否かが検出できれば良い。 As a result, in the case of the image M2, as shown in FIG. 29, the non-focus area R non-focus2 is located only at the end in the minus X direction, and the focus area R focus2 is at the end in the plus X direction. You can see that it is biased. Note that the method for determining the position of the out-of-focus area is not limited to the above-described method, and whether or not the out-of-focus area is positioned so as to sandwich the in-focus area for each row or column of the small area. It only needs to be detected.

ステップS313において、視野移動判定部411は、ステップS311及びS312において判定された非合焦領域の位置から、視野移動の要否を判定する。具体的には、画像M2のX方向及びY方向の各々において、非合焦領域が片側にのみ位置している場合、視野移動が必要と判定し、非合焦領域が両側に位置している場合、又は非合焦領域が存在していない場合、視野移動は不要と判定する。例えば、図29に示す画像M2の場合、X方向については、非合焦領域Rnon-focus2が左端側にのみ位置しているため、X方向における視野移動が必要と判定する。一方、Y方向については、非合焦領域が存在しない(接点=ゼロ)ので、視野移動は不要と判定する。このような視野移動の要否は、小領域の行ごと、列ごとに判定することとし、非合焦領域が片側にしか存在しない小領域の行又は列が1つでもあれば、視野移動が必要と判定する。また、視野移動判定部411は、視野移動が必要と判定した場合に、各小領域の画像評価値EX、EYをパラメータ記憶部241に記憶させる。 In step S313, the visual field movement determination unit 411 determines whether or not the visual field movement is necessary from the position of the out-of-focus area determined in steps S311 and S312. Specifically, in each of the X direction and the Y direction of the image M2, when the out-of-focus area is located only on one side, it is determined that the visual field movement is necessary, and the out-of-focus area is located on both sides. If there is no out-of-focus region, it is determined that visual field movement is unnecessary. For example, in the case of the image M2 shown in FIG. 29, in the X direction, since the non-focused region R non-focus2 is located only on the left end side, it is determined that the visual field movement in the X direction is necessary. On the other hand, in the Y direction, since there is no out-of-focus area (contact point = zero), it is determined that visual field movement is unnecessary. The necessity of such visual field movement is determined for each row and column of the small area, and if there is at least one row or column of the small area where the out-of-focus area exists only on one side, the visual field movement is not performed. Judge as necessary. Also, the visual field movement determination unit 411 stores the image evaluation values EX and EY of each small region in the parameter storage unit 241 when it is determined that the visual field movement is necessary.

ステップS31における判定の結果、X方向及びY方向のいずれにも視野移動が不要であった場合(ステップS32:No)、アライメント装置40の動作はステップS13に移行する。   If the result of determination in step S31 is that visual field movement is not required in either the X direction or the Y direction (step S32: No), the operation of the alignment apparatus 40 proceeds to step S13.

一方、ステップS31における判定の結果、視野移動が必要であった場合(ステップS32:Yes)、顕微鏡システム3は、被写体Sに対する観察光学系104の視野Vを相対的に移動させる(ステップS33)。より詳細には、視野移動判定部411は、パラメータ記憶部241に記憶させた各小領域の画像評価値EX、EYに基づき、視野Vの相対的な移動方向を、非合焦領域が位置している方向とは反対方向に決定する。これに応じて、撮像制御部22は、視野Vの相対的な移動方向を示す制御信号をステージ駆動部132(図2参照)に出力する。ステージ駆動部132はこの制御信号に従ってステージ131をXY面内において移動させることにより、視野Vを相対的に変化させる。例えば図29に示す画像M2の場合、非合焦領域Rnon-focus2はマイナスX方向の端部のみに存在するので、視野VをプラスX方向に移動させる。この場合、実際には、顕微鏡装置10において、被写体Sが載置されたステージ131をマイナスX方向に移動させる。
その後、アライメント装置40の動作は、ステップS10に移行する。
On the other hand, if the result of determination in step S31 is that visual field movement is necessary (step S32: Yes), the microscope system 3 moves the visual field V of the observation optical system 104 relative to the subject S (step S33). More specifically, the visual field movement determination unit 411 determines the relative movement direction of the visual field V based on the image evaluation values EX and EY of each small region stored in the parameter storage unit 241. The direction is determined to be the opposite direction. In response to this, the imaging control unit 22 outputs a control signal indicating the relative moving direction of the visual field V to the stage driving unit 132 (see FIG. 2). The stage drive unit 132 relatively changes the visual field V by moving the stage 131 in the XY plane according to this control signal. For example, in the case of the image M2 shown in FIG. 29, since the non-focused region R non-focus2 exists only at the end portion in the minus X direction, the visual field V is moved in the plus X direction. In this case, actually, in the microscope apparatus 10, the stage 131 on which the subject S is placed is moved in the minus X direction.
Thereafter, the operation of the alignment apparatus 40 proceeds to step S10.

アライメント装置40は、このようなステップS10、S11、S31〜S33を、視野移動は不要と判定されるまで(ステップS32:No)、即ち、視野Vの移動後に取得された画像から非合焦領域が検出されるまで繰り返す。なお、X方向及びY方向の両方に視野を移動すべきと判定された場合には、まず、X方向に視野Vを移動させてステップS10、S11、S31〜S33を繰り返し、X方向における視野移動は不要と判断された後で最初の視野位置に戻り、そこからY方向に視野Vを移動させて、これらのステップS10、S11、S31〜S33を繰り返す。   The alignment apparatus 40 performs such steps S10, S11, and S31 to S33 until it is determined that the visual field movement is unnecessary (No in step S32), that is, from the image acquired after the visual field V is moved. Repeat until is detected. When it is determined that the field of view should be moved in both the X direction and the Y direction, first, the field of view V is moved in the X direction and steps S10, S11, S31 to S33 are repeated, and the field of view is moved in the X direction. Is determined to be unnecessary, and then returns to the first visual field position, from which the visual field V is moved in the Y direction, and these steps S10, S11, S31 to S33 are repeated.

ここで、2巡目以降のステップS31においては、それまでに取得された画像について算出された画像評価値EX、EYを含めて、さらなる視野移動の要否が判定される。例えば、1巡目のステップS10において図6に示す視野Vが写った画像M2が取得され(図29参照)、合焦領域の検出結果に基づいて視野をプラスX方向に移動させることになった場合、2巡目のステップS10においては、被写体Sのうち、該視野Vに隣接する領域の画像M3(図30参照)が取得される。この画像M3に対する合焦領域の検出処理により(ステップS11参照)、合焦領域Rfocus3及び非合焦領域Rnon-focus3が検出された後、続くステップS31においては、図31に示すように、画像M2、M3について算出された画像評価値EXに基づいて判定が行われる。 Here, in step S31 after the second round, the necessity of further visual field movement is determined including the image evaluation values EX and EY calculated for the images acquired so far. For example, in step S10 of the first round, an image M2 in which the visual field V shown in FIG. 6 is captured is obtained (see FIG. 29), and the visual field is moved in the plus X direction based on the detection result of the focus area. In this case, in step S10 of the second round, an image M3 (see FIG. 30) of the area adjacent to the visual field V in the subject S is acquired. After the focus area R focus3 and the non- focus area R non-focus3 are detected by the focus area detection process for the image M3 (see step S11), in the subsequent step S31, as shown in FIG. A determination is made based on the image evaluation value EX calculated for the images M2 and M3.

例えば、図31に示す画像評価値EXのグラフは、画像M2、M3の上から3行目に含まれる8個の小領域における画像評価値EXの分布を示している。このグラフと閾値Txとの交点の数は偶数(2個)なので、さらなる視野移動は不要と判定される。Y方向についても同様に、Y方向への視野移動により取得された全ての画像の画像評価値EYのグラフから、さらなる視野移動の要否が判定される。   For example, the graph of the image evaluation value EX shown in FIG. 31 shows the distribution of the image evaluation value EX in the eight small regions included in the third row from the top of the images M2 and M3. Since the number of intersections between this graph and the threshold value Tx is an even number (two), it is determined that further visual field movement is unnecessary. Similarly, regarding the Y direction, whether or not further visual field movement is necessary is determined from the graphs of the image evaluation values EY of all the images acquired by visual field movement in the Y direction.

ステップS32において視野移動は不要と判定された場合(ステップS32:No)、続くステップS13における処理は実施の形態1と同様である。ただし、視野を移動させて複数の画像を取得した場合には、取得した全ての画像に関する情報を用いて傾斜情報が算出される。例えば、図30に示すように、視野をX方向に移動させて2つの画像M2、M3を取得した場合には、画像M2、M3を含む全体の領域を画像サイズとし、画像M2、M3から検出された合焦領域Rfocus2、Rfocus3を合わせた領域を最終的な合焦領域として、傾斜角度及び傾斜支点が算出される。具体的には、式(4)における画像サイズWimageとして2つ分の画像サイズW(M2,M3)が適用され、合焦領域の幅WFocalとして合焦領域Rfocus2、Rfocus3の合計幅Wf(M2,M3)が適用される。 When it is determined in step S32 that visual field movement is not necessary (step S32: No), the subsequent processing in step S13 is the same as that in the first embodiment. However, when a plurality of images are acquired by moving the field of view, the tilt information is calculated using information about all the acquired images. For example, as shown in FIG. 30, when two images M2 and M3 are acquired by moving the field of view in the X direction, the entire area including the images M2 and M3 is set as the image size and detected from the images M2 and M3. The tilt angle and tilt fulcrum are calculated with the final focus region set as the focus region R focus2 and R focus3 combined. Specifically, two image sizes W (M2, M3) are applied as the image size W image in the expression (4), and the total width of the focus areas R focus2 and R focus3 is set as the focus area width W Focal. W f (M2, M3) is applied.

その後のステップS14、S15は、実施の形態2と同様である。ステップS15を実行せずに、ステップS14において表示された傾斜情報を参照して、ユーザが手動でステージ131の傾斜を調整することとしても良い。   The subsequent steps S14 and S15 are the same as in the second embodiment. Instead of executing step S15, the user may manually adjust the tilt of the stage 131 with reference to the tilt information displayed in step S14.

以上説明したように、実施の形態3によれば、片ボケのように、1つの視野の片側にのみ非合焦領域が存在するために、合焦領域の幅を特定することができない場合であっても、視野を移動させて撮像を行うことにより、合焦領域の全体像を把握して、画像のみから対物レンズ140と被写体との間の傾斜情報を算出することができる。また、実施の形態3によれば、画像内の各小領域の画像評価値の分布から、非合焦領域が存在する方向を精度良く推定することができるので、視野を移動すべき方向を特定して確実且つ効率良く傾斜情報を算出することができる。   As described above, according to the third embodiment, since the out-of-focus area exists only on one side of one field of view as in one-sided blur, the width of the in-focus area cannot be specified. Even in such a case, by moving the field of view and capturing an image, it is possible to grasp the whole image of the in-focus area and calculate the tilt information between the objective lens 140 and the subject from only the image. Further, according to the third embodiment, the direction in which the out-of-focus area exists can be accurately estimated from the distribution of the image evaluation values of the small areas in the image. Thus, the tilt information can be calculated reliably and efficiently.

(実施の形態4)
次に、本発明の実施の形態4について説明する。
図32は、本発明の実施の形態4に係る顕微鏡システムの構成を示すブロック図である。図32に示すように、実施の形態4に係る顕微鏡システム4は、顕微鏡装置10及びアライメント装置50を備える。このうち、顕微鏡装置10の構成及び動作は実施の形態1と同様である(図2参照)。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described.
FIG. 32 is a block diagram showing a configuration of a microscope system according to Embodiment 4 of the present invention. As shown in FIG. 32, the microscope system 4 according to the fourth embodiment includes a microscope apparatus 10 and an alignment apparatus 50. Among these, the configuration and operation of the microscope apparatus 10 are the same as those in the first embodiment (see FIG. 2).

アライメント装置50は、実施の形態2に係るアライメント装置30における制御部23の代わりに、制御部51を備える。制御部51以外のアライメント装置50の各部の構成及び動作は、実施の形態2と同様である。   The alignment apparatus 50 includes a control unit 51 instead of the control unit 23 in the alignment apparatus 30 according to the second embodiment. The configuration and operation of each part of the alignment apparatus 50 other than the control unit 51 are the same as those in the second embodiment.

制御部51は、領域分類部511及び非合焦領域探索判定部512を含む合焦領域検出部510を備える。
領域分類部511は、視野V(図6参照)に入る被写体Sが写った画像を複数の小領域に分割し、各領域が合焦領域であるか否かを判定することにより、画像内を合焦領域と非合焦領域とに分類する。
The control unit 51 includes an in-focus area detection unit 510 including an area classification unit 511 and an out-of-focus area search determination unit 512.
The area classification unit 511 divides the image in which the subject S entering the visual field V (see FIG. 6) is divided into a plurality of small areas, and determines whether each area is an in-focus area. Classification into in-focus areas and out-of-focus areas.

非合焦領域探索判定部512は、領域分類部511による分類結果に基づいて、被写体Sに対する視野Vを移動させて再撮像を行う必要があるか否かを判定するとともに、視野Vを移動させる際の移動方向を決定する。   The out-of-focus area search determination unit 512 determines whether or not it is necessary to perform re-imaging by moving the visual field V with respect to the subject S based on the classification result by the area classification unit 511 and moves the visual field V. Determine the direction of movement.

次に、アライメント装置50の動作について説明する。図33は、アライメント装置50の動作を示すフローチャートである。なお、図33に示すステップS10は、実施の形態1と同様である。   Next, the operation of the alignment apparatus 50 will be described. FIG. 33 is a flowchart showing the operation of the alignment apparatus 50. Note that step S10 shown in FIG. 33 is the same as that in the first embodiment.

ステップS10に続くステップS41において、合焦領域検出部510は、ステップS10において取得された画像内を合焦領域と非合焦領域とに分類する。図34は、合焦領域検出部510が実行する合焦領域検出処理を示すフローチャートである。なお、図34に示すステップS111〜S114は、実施の形態1と同様である(図7参照)。また、図35は、合焦領域検出処理を説明するための模式図である。以下においては、ステップS10において図35に示す画像M4が取得されたものとして説明する。図35は、視野V(図6参照)に入る被写体Sの領域が写った画像M4を複数の小領域に分割した状態を示している(ステップS113参照)。   In step S41 following step S10, the focus area detection unit 510 classifies the image acquired in step S10 into a focus area and a non-focus area. FIG. 34 is a flowchart showing a focus area detection process executed by the focus area detection unit 510. Note that steps S111 to S114 shown in FIG. 34 are the same as those in the first embodiment (see FIG. 7). FIG. 35 is a schematic diagram for explaining the focus area detection processing. In the following description, it is assumed that the image M4 shown in FIG. 35 has been acquired in step S10. FIG. 35 shows a state in which the image M4 in which the area of the subject S entering the visual field V (see FIG. 6) is divided into a plurality of small areas (see step S113).

ステップS114に続くステップS115において、領域分類部511は、ステップS114において算出された画像評価値に基づいて、各小領域を合焦領域と非合焦領域とに分類する。例えば、図35に示す画像M4の場合、画像M4を分割した各小領域mi(iは2以上の自然数)に対して算出された画像評価値を所定の閾値と比較し、画像評価値が該閾値以上である小領域miを合焦領域Rfocus4、画像評価値が該閾値よりも小さい小領域miを非合焦領域Rnon-focus4として分類する。なお、閾値の決定方法は、実施の形態1と同様である。 In step S115 subsequent to step S114, the region classification unit 511 classifies each small region into a focused region and a non-focused region based on the image evaluation value calculated in step S114. For example, in the case of the image M4 shown in FIG. 35, the image evaluation value calculated for each small region m i (i is a natural number of 2 or more) obtained by dividing the image M4 is compared with a predetermined threshold, and the image evaluation value is threshold value above focus the small region m i which is the region R focus4, image evaluation values to classify small subregion m i than the threshold value as out-of-focus region R non-focus4. Note that the threshold determination method is the same as in the first embodiment.

続いて、領域分類部511は、各小領域miに、領域識別のためのラベルを付与する。それにより、各小領域miに含まれる全画素に共通のラベルが付与される。各小領域miには、合焦領域又は非合焦領域ごとに、連続する番号が順次割り当てられる。例えば、図35に示す画像M4においては、第1列目の小領域miが非合焦領域に分類されているため、これらの小領域miには、非合焦領域であることを示す非合焦領域ラベルDj(j=1、2、…)が付与される。一方、第2〜4列目の小領域miが合焦領域に分類されているため、これらの小領域miには、合焦領域であることを示す合焦領域ラベルFk(k=1、2、…)が付与される。 Then, the area classification part 511, the respective small regions m i, to impart a label for region identification. Thereby, the common label is applied to all the pixels included in each small area m i. Each subregion m i, for each focus area, or out-of-focus area, are sequentially assigned a consecutive number. For example, in an image M4 shown in FIG. 35, because the small region m i in the first row is classified as non-focus area, these small areas m i, indicating that it is out-of-focus area A non-focused area label D j (j = 1, 2,...) Is given. On the other hand, since the small areas m i in the second to fourth columns are classified as in-focus areas, these small areas m i are in-focus area labels F k (k = k = 1, 2, ...) are given.

続くステップS42において、非合焦領域探索判定部512は、非合焦領域の追加探索の要否を判定する。図36は、非合焦領域探索判定部512が実行する非合焦領域探索判定処理を示すフローチャートである。また、図37〜図43は、非合焦領域探索判定処理を説明するための模式図である。   In subsequent step S42, the out-of-focus area search determination unit 512 determines whether or not an additional search for the out-of-focus area is necessary. FIG. 36 is a flowchart showing a non-focus area search determination process executed by the non-focus area search determination unit 512. FIGS. 37 to 43 are schematic diagrams for explaining the out-of-focus area search determination processing.

まず、ステップS421において、非合焦領域探索判定部512は、それまでに被写体Sに対して撮像が行われた回数を示す撮像回数ラベルを取得する。1巡目の処理においては、撮像回数ラベルは1となる。   First, in step S421, the out-of-focus area search determination unit 512 acquires an imaging number label indicating the number of times the subject S has been imaged so far. In the first round of processing, the imaging count label is 1.

続くステップS422において、非合焦領域探索判定部512は、非合焦領域ラベルDjが付与された領域(以下、Dj領域という)に対して、隣接する領域との連結性を判定し、連結性のある複数の領域を統合することにより、連結非合焦領域を生成する。この際、非合焦領域探索判定部512は、図37に示すように、画像内の小領域及び各小領域内の画素に対してラスタ順に連結条件の判定を行う。即ち、画像M4内では、左上のDj領域から右に向かって判定を行い、1行目の判定が終了すると、1行下の左端のDj領域を判定対象とし、再び、左から右に向かって判定を行う。また、各Dj領域内では、左上の画素から右に向かって判定を行い、1行目の判定が終了すると、1行下の左端の画素を判定対象とし、再び、左から右に向かって判定を行う。例えば、図38(a)に示すD1領域内の4隅の画素a1、b1、c1、d1に対する判定は、画素a1→画素b1→画素c1→画素d1の順に行われる。 In subsequent step S422, the non-focus area search determination unit 512 determines the connectivity with the adjacent area for the area to which the non-focus area label D j is assigned (hereinafter referred to as the D j area), A connected non-focused region is generated by integrating a plurality of connected regions. At this time, as shown in FIG. 37, the out-of-focus area search determination unit 512 determines the connection condition for the small area in the image and the pixels in each small area in the raster order. That is, in the image M4, the determination is made from the upper left D j region to the right, and when the determination of the first row is completed, the left end D j region of the lower row is set as the determination target, and again from left to right. Make a judgment. In each D j region, the determination is made from the upper left pixel toward the right, and when the determination in the first row is completed, the left end pixel in the lower row is set as the determination target, and again from the left toward the right. Make a decision. For example, the determination for the four corners of the pixel a1, b1, c1, d1 of the D 1 in a region shown in FIG. 38 (a) is performed in the order of pixel a1 → pixel b1 → pixel c1 → pixel d1.

j領域の連結性は、各Dj領域内の4隅の画素の連結性に基づいて判定される。非合焦領域探索判定部512は、まず、図38(a)に示すように、D1領域内の4隅の画素a1、b1、c1、d1の各々について、近傍画素(周囲画素)が非合焦領域内の画素であるか否かを判定する。例えば、画素a1の近傍画素はいずれもD領域内に位置するので、他の非合焦領域との連結性はないと判定される。また、画素b1の近傍画素は、D1領域内又は隣接する合焦領域(F1領域)内に位置するので、他の非合焦領域との連結性がないと判定される。一方、画素c1の場合、4つの近傍画素p11、p12、p13、p14のうち、近傍画素p13がD2領域に含まれるため、D1領域とD2領域との間に連結性があると判定される。 Coupling of D j region is determined based on the connectivity of the four corners of the pixels in each D j region. Out-of-focus region searching determination unit 512, first, as shown in FIG. 38 (a), for each of D 1 4 corners of pixels in the area a1, b1, c1, d1, neighboring pixels (peripheral pixels) is non It is determined whether or not the pixel is in the focus area. For example, since the position both neighboring pixels to D 1 in the region of the pixel a1, connected with the other non-focus area is determined not. Further, since the neighboring pixel of the pixel b1 is located in the D 1 region or in the adjacent in-focus region (F 1 region), it is determined that there is no connectivity with other out-of-focus regions. On the other hand, in the case of the pixel c1, among the four neighboring pixels p11, p12, p13, and p14, the neighboring pixel p13 is included in the D 2 region, so that it is determined that there is connectivity between the D 1 region and the D 2 region. Is done.

このように、連結性があると判定された時点で、D1領域に対する判定処理は終了する。即ち、残る画素d1に対する判定はスキップされる。そして、連結性があると判定されたD1領域及びD2領域に、同じ連結非合焦ラベルCn(n=1、2、…)が付与される。この際、処理対象の領域(D1領域)に対する連結相手の領域(D2領域)に、既に連結非合焦ラベルCnが付与されていた場合には、当該連結相手の連結非合焦ラベルCnが処理対象の領域に付与される。一方、連結相手の領域に未だ連結非合焦ラベルCnが付与されていない場合には、新たな連結非合焦ラベルCnが設定される。例えば図38(a)の場合、連結相手であるD2領域には未だ連結非合焦ラベルCnが付与されていないので、D1領域及びD2領域に連結非合焦ラベルの初期値C1が付与される(図38(b)参照)。なお、連結非合焦ラベルCnの初期設定値はC0であり、ラベル番号nは、新たに連結性があると判定された場合、それまでに取得された連結非合焦ラベルCnの最大ラベル番号+1に設定される。 Thus, when it is determined that there is connectivity, the determination process for the D 1 region ends. That is, the determination for the remaining pixel d1 is skipped. Then, the same connected non-focused label C n (n = 1, 2,...) Is given to the D 1 region and the D 2 region determined to have connectivity. At this time, if the connected non-focused label C n has already been assigned to the area (D 2 area) of the connection partner for the area to be processed (D 1 area), the connection non-focus label of the connection partner. C n is assigned to the area to be processed. On the other hand, if the connected non-focused label C n is not yet given to the connected partner area, a new connected non-focused label C n is set. For example, in the case of FIG. 38 (a), because it is linked counterpart D still connected unfocused label C n in the second region is not granted, D 1 region and D 2 connected to the region-of-focus initial value C of the label 1 is given (see FIG. 38B). Note that the initial setting value of the connected non-focused label C n is C 0 , and if the label number n is newly determined to be connected, the connected non-focused label C n obtained so far The maximum label number is set to +1.

続く処理対象であるD2領域についても、同様にして判定が行われる。ここで、図38(c)に示すように、画素a2の近傍画素p15はD1領域内に位置するが、既に自身(D2領域)と連結されているので、処理はスキップされる。画素b2についても同様である。一方、画素c2は、4つの近傍画素p21、p22、p23、p24のうち、近傍画素p23がD3領域に含まれるため、D2領域とD3領域との間に連結性があると判定される。この場合、D3領域にD2領域と同じ連結非合焦ラベルC1が付与される。 The determination is performed in the same manner for the subsequent D 2 region to be processed. Here, as shown in FIG. 38 (c), the neighboring pixel p15 of the pixel a2 is located in the D 1 area, but is already connected to itself (D 2 area), so the processing is skipped. The same applies to the pixel b2. On the other hand, the pixel c2 includes four neighboring pixels p21, p22, p23, of p24, for neighboring pixels p23 is included in the D 3 regions, it is determined that there is connectivity between the D 2 region and D 3 regions The In this case, the same unfocused label C 1 as in the D 2 area is given to the D 3 area.

ここで、連結相手のDj領域に、処理対象のDj領域とは異なる連結非合焦ラベルCnが既に付与されていた場合、ラベル番号が若い方の連結非合焦ラベルCnに合わせられる。例えば、例えば図38(d)に示すように、D11領域に対する判定の際に、該D11領域と連結性があるとの判定によりD14領域に連結非合焦ラベルC1が付与され、その後で、連結非合焦ラベルC2が付与されているD13領域に対する判定において、D14領域にD13領域と連結性があると判定された場合、D13領域及び該D13領域と同じ連結非合焦ラベルC2が付与されているD12領域の連結非合焦ラベルは、連結非合焦ラベルC1に変換される。
なお、Dj領域の4隅の画素がそれぞれ異なる領域と連結している場合があるため、各Dj領域に対し、少なくとも1回の連結判定が行われる。
Here, D j region of the connection partner, if different connecting unfocused label C n and D j region to be processed is already granted, fit the label C n focusing connecting non focus towards label number of young It is done. For example, as shown in FIG. 38 (d), in the determination with respect to D 11 regions, labeled C 1 focus coupled non if the D 14 area by the determination that there is connectivity with the D 11 region is applied, then, the judgment for D 13 area connected unfocused label C 2 is applied, if it is determined that there is connectivity with the D 13 regions D 14 region, the same as D 13 regions and the D 13 area The connected non-focused label in the region D 12 to which the connected non-focused label C 2 is assigned is converted into a connected non-focused label C 1 .
In addition, since the pixels at the four corners of the D j region may be connected to different regions, the connection determination is performed at least once for each D j region.

続くステップS423において、非合焦領域探索判定部512は、連結非合焦ラベルCnが付与された領域(以下、連結非合焦領域という)の位置に基づいて、他の非合焦領域を探索する必要性の有無を判定する。また、探索が必要である場合には、併せて、探索方向も判定する。 In subsequent step S423, the out-of-focus area searching determining unit 512, connected unfocused label C n is assigned region (hereinafter, connected as a non-focus area) on the basis of the position of the other non-focus area Determine whether there is a need to search. If a search is necessary, the search direction is also determined.

より詳細には、非合焦領域探索判定部512は、図39に示すように、画像M4内において、連結非合焦領域の領域数をカウントする。この領域数は、連結非合焦ラベルCnのラベル番号の最大値となる。例えば画像M4の場合、領域数は1となる。 More specifically, as shown in FIG. 39, the non-focus area search determination unit 512 counts the number of connected non-focus areas in the image M4. The number of regions, the maximum value of the connection-focus label C n label number. For example, in the case of the image M4, the number of areas is 1.

非合焦領域探索判定部512は、連結非合焦領域の領域数が1の場合、非合焦領域の探索が必要であると判定する。この場合、続いて、非合焦領域探索判定部512は、連結非合焦領域の重心画素Dgの位置及び合焦領域Rfocus4の重心画素Fgの位置を求める。そして、図40に示すように、連結非合焦領域の重心画素Dgから合焦領域Rfocus4の重心画素Fgに向かうベクトルの方向を、探索方向として決定する。なお、連結された非合焦領域の領域数が2以上の場合については、後で詳述する。 When the number of connected non-focus areas is 1, the non-focus area search determination unit 512 determines that a search for non-focus areas is necessary. In this case, subsequently, out-of-focus area searching determining unit 512 obtains the position and the position of the center of gravity pixel F g of focus areas R Focus4 centroid pixel D g of the coupling-of-focus area. Then, as shown in FIG. 40, connecting the direction of a vector towards the center of gravity pixel F g-of-focus areas R Focus4 focus from the center of gravity pixel D g regions, determined as the search direction. A case where the number of connected out-of-focus areas is two or more will be described in detail later.

ステップS42において非合焦領域の探索が必要と判定された場合(ステップS43:Yes)、顕微鏡システム4は、被写体Sに対する観察光学系104の視野Vを、ステップS423において決定された探索方向に移動させる(ステップS44)。より詳細には、非合焦領域探索判定部512は、視野Vの移動方向を示すベクトル情報を撮像制御部22に出力する。これに応じて、撮像制御部22は、視野Vの相対的な移動方向を示す制御信号をステージ駆動部132(図2参照)に出力する。ステージ駆動部132はこの制御信号に従ってステージ131をXY面内において移動させることにより、視野Vを相対的に変化させる。   When it is determined in step S42 that a search for an out-of-focus area is necessary (step S43: Yes), the microscope system 4 moves the field of view V of the observation optical system 104 with respect to the subject S in the search direction determined in step S423. (Step S44). More specifically, the out-of-focus area search determination unit 512 outputs vector information indicating the moving direction of the visual field V to the imaging control unit 22. In response to this, the imaging control unit 22 outputs a control signal indicating the relative moving direction of the visual field V to the stage driving unit 132 (see FIG. 2). The stage drive unit 132 relatively changes the visual field V by moving the stage 131 in the XY plane according to this control signal.

また、非合焦領域探索判定部512は、撮像回数のフラグを、これまで行った撮像回数に対して1をインクリメントする。例えば、1巡目のステップS10及びS41〜S43の後ステップS44に移行した場合、撮像回数のフラグは2となる。さらに、非合焦領域探索判定部512は、連結非合焦ラベルのラベル番号Cnの最大値(図40においては1)を、連結非合焦ラベルの最大ラベル番号として、パラメータ記憶部241に記憶させる。 In addition, the out-of-focus area search determination unit 512 increments the imaging count flag by 1 with respect to the imaging count performed so far. For example, when the process proceeds to step S44 after steps S10 and S41 to S43 in the first round, the imaging count flag is 2. Further, the out-of-focus area search determining unit 512 sets the maximum value (1 in FIG. 40) of the label number C n of the connected non-focused label as the maximum label number of the connected non-focused label in the parameter storage unit 241. Remember me.

アライメント装置50は、このようなステップS10及びS41〜S44を、非合焦領域の探索は不要と判定されるまで(ステップS43:No)繰り返す。
ここで、2巡目以降のステップS42における非合焦領域連結処理において(図36のステップS422参照)、非合焦領域探索判定部512は、パラメータ記憶部241に記憶させた連結非合焦ラベルの最大ラベル番号を取得し、これに1をプラスした番号を、連結非合焦ラベルの初期値とする。例えば、上述した例では、1巡目における最大ラベル番号が1であったため、2巡目の連結非合焦ラベルの初期値としてC2が設定される。
The alignment apparatus 50 repeats such steps S10 and S41 to S44 until it is determined that the search for the out-of-focus area is unnecessary (step S43: No).
Here, in the out-of-focus area linking process in step S42 after the second round (see step S422 in FIG. 36), the non-focus area search determining unit 512 stores the connected out-of-focus label stored in the parameter storage unit 241. The number obtained by adding 1 to this is used as the initial value of the unfocused label. For example, in the above-described example, since the maximum label number in the first round is 1, C 2 is set as the initial value of the connected unfocused label in the second round.

また、2巡目以降においては、それまでに取得された画像に対する非合焦領域連結処理の結果を用いて、非合焦領域の追加探索の要否及び探索方向が判定される。ここで、連結非合焦領域の領域数が2以上の場合について説明する。   Further, in the second and subsequent rounds, the necessity and search direction of the additional search for the non-focused region and the search direction are determined using the result of the non-focused region connection process for the images acquired so far. Here, a case where the number of connected non-focused areas is two or more will be described.

例えば、1巡目のステップS10において図35に示す画像M4が取得され、非合焦領域の追加探索の要否及び探索方向の判定結果に基づいて視野VをプラスX方向に移動させることになった場合、2巡目のステップS10においては、被写体Sのうち、図6に示す視野Vに隣接する領域の画像M5が取得される(図41参照)。この画像M5に対する小領域の分類処理により、画像M5内の小領域が合焦領域Rfocus5と非合焦領域Rnon-focus5とに分類され、非合焦領域Rnon-focus5に対する連結処理により、非合焦領域Rnon-focus5内の各小領域に、連結非合焦ラベルC2が付与されたとする(図42参照)。 For example, the image M4 shown in FIG. 35 is acquired in step S10 of the first round, and the visual field V is moved in the plus X direction based on the necessity of additional search for the out-of-focus region and the determination result of the search direction. In step S10 in the second round, an image M5 of the area adjacent to the visual field V shown in FIG. 6 in the subject S is acquired (see FIG. 41). By the classification process of the small area for the image M5, the small area in the image M5 is classified into the focused area R focus5 and the non-focused area R non-focus5, and by the connection process for the non-focused area R non-focus5 , Assume that a connected non-focused label C 2 is given to each small area in the non-focused area R non-focus5 (see FIG. 42).

この場合、非合焦領域探索判定部512は、まず、連結非合焦ラベルC1が付与された領域の重心画素Dg1と、合焦領域の重心画素とを取得する。このうち、合焦領域については、画像M4、M5からそれぞれ検出された合焦領域Rfocus4、Rfocus5を合わせた領域Rfocus(M4,M5)の重心画素Fg(M4,M5)が取得される。 In this case, the out-of-focus area searching determination section 512 first acquires connecting the centroid pixel D g1-of-focus label C 1 is assigned region, and the centroid pixel of focus area. Among these, for the focus area, the barycentric pixel F g (M4, M5) of the area R focus (M4, M5) obtained by combining the focus areas R focus4 and R focus5 detected from the images M4 and M5, respectively , is acquired. The

続いて、非合焦領域探索判定部512は、図43に示すように、領域Rfocus(M4,M5)の重心画素Fg(M4,M5)に対して、ラベル番号が小さい方の連結非合焦ラベルC1が付与された領域の重心画素Dg1と対称な画素Aを求める。非合焦領域探索判定部512は、この画素Aに付与されたラベルが合焦ラベルである場合、非合焦領域の追加探索が必要であると判定し、重心画素Dg1から重心画素Fg(M4,M5)に向かうベクトルの方向を探索方向(視野の移動方向)とする。 Subsequently, as shown in FIG. 43, the non-focused area search determining unit 512 connects the non-focused area search determining unit 512 with the smaller label number to the center pixel F g (M4, M5) of the area R focus (M4, M5). determining a centroid pixel D g1 and symmetrical pixel a in region focusing label C 1 has been applied. When the label given to the pixel A is a focus label, the non-focus area search determination unit 512 determines that an additional search for the non-focus area is necessary, and the centroid pixel F g from the centroid pixel D g1. The direction of the vector toward (M4, M5) is defined as the search direction (the field of view movement direction).

一方、非合焦領域探索判定部512は、画素Aに付与されたラベルが合焦ラベルでない場合、非合焦領域の追加探索は不要と判定する。例えば図43の場合、画素Aには連結非合焦ラベルC2が付与されているため、さらなる非合焦領域の探索は不要と判定される。 On the other hand, when the label given to the pixel A is not the in-focus label, the out-of-focus area search determination unit 512 determines that the additional search for the out-of-focus area is unnecessary. For example, in the case of FIG. 43, since the connecting unfocused label C 2 is applied to the pixel A, the search for additional out-of-focus region is determined to be unnecessary.

ステップS43においてさらなる非合焦領域の探索は不要と判定された場合(ステップS43:No)、続くステップS13〜S15については実施の形態3と同様である。なお、ステップS15を実行せずに、ステップS14において表示された傾斜情報を参照して、ユーザが手動でステージ131の傾斜を調整することとしても良い。   When it is determined in step S43 that no further in-focus area search is necessary (step S43: No), subsequent steps S13 to S15 are the same as those in the third embodiment. Note that the user may manually adjust the tilt of the stage 131 with reference to the tilt information displayed in step S14 without executing step S15.

以上説明したように、実施の形態4によれば、片ボケのように、1つの視野の片側にのみ非合焦領域が存在するために、合焦領域の幅を特定することができない場合であっても、視野を移動させて撮像を行うことにより、合焦領域の全体像を把握して、画像のみから対物レンズ140と被写体との間の傾斜情報を算出することができる。また、実施の形態4によれば、連結非合焦領域の重心と合焦領域の重心との位置関係から、非合焦領域が存在する方向を精度よく推定することができるので、視野を移動すべき方向を特定して確実且つ効率良く傾斜情報を算出することができる。例えば、取得済みの画像に写った視野の斜め方向に非合焦領域が存在する場合であっても、視野の移動方向を1度の処理で特定することも可能である。   As described above, according to the fourth embodiment, since the out-of-focus area exists only on one side of one field of view as in one-sided blur, the width of the in-focus area cannot be specified. Even in such a case, by moving the field of view and capturing an image, it is possible to grasp the whole image of the in-focus area and calculate the tilt information between the objective lens 140 and the subject from only the image. Further, according to the fourth embodiment, the direction in which the non-focused area exists can be accurately estimated from the positional relationship between the centroid of the connected non-focused area and the centroid of the focused area. It is possible to calculate the inclination information reliably and efficiently by specifying the direction to be performed. For example, even if there is a non-focused region in the oblique direction of the visual field shown in the acquired image, the moving direction of the visual field can be specified by one process.

(実施の形態5)
次に、本発明の実施の形態5について説明する。
図44は、本発明の実施の形態5に係る顕微鏡システムの構成を示すブロック図である。図44に示すように、実施の形態5に係る顕微鏡システム5は、顕微鏡装置10及びアライメント装置60を備える。このうち、顕微鏡装置10の構成及び動作は実施の形態1と同様である(図2参照)。
(Embodiment 5)
Next, a fifth embodiment of the present invention will be described.
FIG. 44 is a block diagram showing a configuration of a microscope system according to Embodiment 5 of the present invention. As shown in FIG. 44, the microscope system 5 according to the fifth embodiment includes a microscope apparatus 10 and an alignment apparatus 60. Among these, the configuration and operation of the microscope apparatus 10 are the same as those in the first embodiment (see FIG. 2).

アライメント装置60は、実施の形態2に係るアライメント装置30における制御部23の代わりに、制御部61を備える。制御部61以外のアライメント装置60の各部の構成及び動作は、実施の形態2と同様である。   The alignment apparatus 60 includes a control unit 61 instead of the control unit 23 in the alignment apparatus 30 according to the second embodiment. The configuration and operation of each part of the alignment apparatus 60 other than the controller 61 are the same as those in the second embodiment.

制御部61は、合焦領域検出部231と、合焦位置比較部611と、傾斜情報算出部612とを備える。このうち、合焦領域検出部231の動作は、実施の形態1と同様である。   The control unit 61 includes a focus area detection unit 231, a focus position comparison unit 611, and a tilt information calculation unit 612. Among these, the operation of the focus area detection unit 231 is the same as that of the first embodiment.

図45及び図46は、実施の形態5における被写体Sの撮像方法を示す模式図である。実施の形態5においては、図45及び図46に示すように、対物レンズ140を含む観察光学系104の合焦面に対し、被写体Sを予め既知の傾斜角度γだけ相対的に傾斜させた状態で撮像を行う。両者を相対的に傾斜させるためには、例えば図45に示すように、水平に設置されたステージ131の載置面131a上に被写体Sを載置し、被写体Sに対して合焦面が傾斜角度γだけ傾斜するように観察光学系104を設置すれば良い。なお、この場合、電気的な制御により観察光学系104の傾斜を変化させる傾斜調整駆動部105をさらに設けると良い。或いは、図46に示すように、光軸Lが載置面131aと直交するように観察光学系104を設置し、載置面131a上に傾斜のある台座106を設置し、この台座106上に被写体Sを配置しても良い。なお、光軸Lと被写体Sとを相対的に傾斜させるための機構は、これらの例に限定されない。以下の説明においては、図45に示すように、観察光学系104側を傾斜させて撮像を行うこととする。   45 and 46 are schematic diagrams illustrating a method of capturing the subject S in the fifth embodiment. In the fifth embodiment, as shown in FIGS. 45 and 46, the subject S is inclined in advance by a known inclination angle γ with respect to the focal plane of the observation optical system 104 including the objective lens 140. Take an image with. In order to incline both relatively, for example, as shown in FIG. 45, the subject S is placed on the placement surface 131a of the stage 131 installed horizontally, and the focusing surface is inclined with respect to the subject S. The observation optical system 104 may be installed so as to be inclined by the angle γ. In this case, an inclination adjustment driving unit 105 that changes the inclination of the observation optical system 104 by electrical control may be further provided. Alternatively, as shown in FIG. 46, the observation optical system 104 is installed so that the optical axis L is orthogonal to the mounting surface 131a, and an inclined pedestal 106 is installed on the mounting surface 131a. The subject S may be arranged. Note that the mechanism for relatively tilting the optical axis L and the subject S is not limited to these examples. In the following description, as shown in FIG. 45, imaging is performed with the observation optical system 104 side inclined.

実施の形態5においては、工場出荷時のように、ステージ131及び観察光学系104のいずれにも傾斜が生じていないことが保証されている状態で、観察光学系104の合焦面を被写体Sに対して傾斜角度γだけ傾斜させた場合に(以下、この状態を基準状態という)、観察光学系104に対して被写体Sが合焦される領域(以下、基準合焦領域という)に関する情報(以下、基準合焦情報という)を、予めパラメータ記憶部241に記憶させておく。基準合焦情報は、具体的には、基準状態で撮像を行うことにより取得した画像(以下、基準画像という)から検出された基準合焦領域の位置及び幅の情報である。または、基準画像そのものをパラメータ記憶部241に記憶させても良い。或いは、パラメータ記憶部241に記憶されている各種パラメータから、基準合焦領域の位置及び幅を算出してもよい。基準合焦領域の位置及び幅は、撮像素子211aの受光面のサイズ(イメージャサイズ)、対物レンズ140の被写界深度DOF、及び傾斜角度γ等のパラメータによって規定されるからである。   In the fifth embodiment, the focused surface of the observation optical system 104 is placed on the subject S in a state in which it is guaranteed that neither the stage 131 nor the observation optical system 104 is tilted as in the factory shipment. (Hereinafter, this state is referred to as a reference state) when the object S is focused on the observation optical system 104 (hereinafter referred to as a reference focus region). Hereinafter, the reference focus information) is stored in the parameter storage unit 241 in advance. Specifically, the reference focusing information is information on the position and width of the reference focusing area detected from an image acquired by performing imaging in the reference state (hereinafter referred to as a reference image). Alternatively, the reference image itself may be stored in the parameter storage unit 241. Alternatively, the position and width of the reference focus area may be calculated from various parameters stored in the parameter storage unit 241. This is because the position and width of the reference focus area are defined by parameters such as the size of the light receiving surface (imager size) of the image sensor 211a, the depth of field DOF of the objective lens 140, and the tilt angle γ.

合焦位置比較部611は、被写体Sの観察画像から検出された合焦領域の位置及び幅と、基準合焦領域の位置及び幅をそれぞれ比較して差分を算出する。
傾斜情報算出部612は、合焦位置比較部611により算出された合焦領域の位置及び幅の差分から、被写体Sの傾斜情報を算出する。
The focus position comparison unit 611 calculates a difference by comparing the position and width of the focus area detected from the observation image of the subject S with the position and width of the reference focus area.
The tilt information calculation unit 612 calculates the tilt information of the subject S from the difference between the position and width of the focus area calculated by the focus position comparison unit 611.

次に、アライメント装置60の動作について説明する。図47は、アライメント装置60の動作を示すフローチャートである。なお、図47に示すステップS10及びS11は、実施の形態1と同様である。以下においては、ステップS10において、図48(a)に示す画像M6が取得されたものとして説明する。図48(a)は、視野V(図6参照)に入る被写体Sの領域が写った画像M6を複数の小領域に分割した状態を示している(図7のステップS113参照)。また、パラメータ記憶部241には、図48(b)に示す基準画像Mbaseから検出された基準合焦領域Rfocus(b)の位置及び幅が予め記憶されているものとする。 Next, the operation of the alignment apparatus 60 will be described. FIG. 47 is a flowchart showing the operation of the alignment apparatus 60. Note that steps S10 and S11 shown in FIG. 47 are the same as those in the first embodiment. In the following description, it is assumed that the image M6 shown in FIG. 48A has been acquired in step S10. FIG. 48A shows a state in which the image M6 in which the area of the subject S entering the visual field V (see FIG. 6) is divided into a plurality of small areas (see step S113 in FIG. 7). In addition, it is assumed that the position and width of the reference focus area R focus (b) detected from the reference image M base shown in FIG. 48B is stored in the parameter storage unit 241 in advance.

ステップS11に続くステップS51において、合焦位置比較部611は、パラメータ記憶部241に記憶されている基準合焦領域Rfocus(b)の情報を読み出し、ステップS10において取得された画像M6から検出された合焦領域Rfocus6の位置及び幅と、基準合焦領域Rfocus(b)の位置及び幅とをそれぞれ比較して差分を算出する。なお、記憶部24に基準画像Mbaseが記憶されている場合、合焦位置比較部611は、合焦領域検出部231に基準画像から基準合焦領域Rfocus(b)を検出させることにより、該基準合焦領域Rfocus(b)の位置及び幅を取得する。或いは、合焦位置比較部611は、イメージャサイズ、使用中の対物レンズ140の被写界深度DOF、傾斜角度γ等のパラメータをパラメータ記憶部241から読み出して、基準合焦領域Rfocus(b)の位置及び幅を算出しても良い。 In step S51 subsequent to step S11, the in-focus position comparison unit 611 reads information on the reference in-focus area R focus (b) stored in the parameter storage unit 241 and is detected from the image M6 acquired in step S10. A difference is calculated by comparing the position and width of the in-focus area R focus6 with the position and width of the reference in-focus area R focus (b) . When the reference image M base is stored in the storage unit 24, the in-focus position comparison unit 611 causes the in-focus area detection unit 231 to detect the reference in-focus area R focus (b) from the reference image. The position and width of the reference focusing area R focus (b) are acquired. Alternatively, the focus position comparison unit 611 reads parameters such as the imager size, the depth of field DOF of the objective lens 140 being used, and the tilt angle γ from the parameter storage unit 241, and the reference focus region R focus (b) The position and width may be calculated.

より詳細には、合焦位置比較部611は、画像M6内の合焦領域Rfocus6の幅Wfocus6と基準合焦領域Rfocus(b)の幅Wfocus(b)との差分(以下、差分幅という)ΔW=Wfocus(b)−Wfocus6を算出する。観察画像内の合焦領域の幅が基準合焦領域の幅より狭くなっているとき、差分幅ΔWの符号はプラスとなり、観察画像の合焦領域の幅が基準合焦領域の幅よりも拡がっているとき、差分幅ΔWの符号はマイナスとなる。 More specifically, the in-focus position comparison unit 611 calculates a difference between the width W focus6 of the in-focus area R focus6 in the image M6 and the width W focus (b) of the reference in-focus area R focus (b) (hereinafter, difference) ΔW = W focus (b) −W focus6 is calculated. When the width of the focus area in the observation image is narrower than the width of the reference focus area, the sign of the difference width ΔW is positive, and the width of the focus area of the observation image is wider than the width of the reference focus area. The sign of the difference width ΔW is negative.

また、合焦位置比較部611は、画像M6内の合焦領域Rfocus6の中心点P6の座標(以下、支点位置という)と基準合焦領域Rfocus(b)の中心点Pbaseの座標(同上)との差分(以下、差分支点という)ΔC(pixel)を算出する。差分支点ΔCは合焦領域Rfocus6の画像中心からの変位を表し、合焦領域Rfocus6が画像M6の左側に偏っている場合、符号はマイナスとなり、合焦領域Rfocus6が画像M6の右側に偏っている場合、符号はプラスとなる。 Moreover, the focus position comparator unit 611, the coordinates of the center point P 6 in the focus area R Focus6 in the image M6 (hereinafter, referred to as the fulcrum position) of the center point P base the reference focus area R focus (b) coordinate A difference (hereinafter referred to as a difference fulcrum) ΔC (pixel) from (same as above) is calculated. The difference fulcrum ΔC represents the displacement of the focus area R focus6 from the center of the image. When the focus area R focus6 is biased to the left side of the image M6, the sign is negative and the focus area R focus6 is on the right side of the image M6. If it is biased, the sign is positive.

合焦位置比較部611は、これらの差分幅ΔW及び差分支点ΔCをパラメータ記憶部241に記憶させる。   The in-focus position comparison unit 611 stores the difference width ΔW and the difference fulcrum ΔC in the parameter storage unit 241.

続くステップS52において、傾斜情報算出部612は、パラメータ記憶部241から各種パラメータを読み出し、ステップS51において算出された差分幅ΔW及び差分支点ΔCを用いて、観察光学系104の傾斜情報を算出する。図49は、傾斜情報算出部612が実行する傾斜情報算出処理を示すフローチャートである。また、図50〜図52は、傾斜特定算出処理を説明するための模式図である。   In subsequent step S52, the tilt information calculation unit 612 reads various parameters from the parameter storage unit 241, and calculates the tilt information of the observation optical system 104 using the difference width ΔW and the difference fulcrum ΔC calculated in step S51. FIG. 49 is a flowchart showing the inclination information calculation processing executed by the inclination information calculation unit 612. 50 to 52 are schematic diagrams for explaining the inclination specifying calculation processing.

このうち、図50(a)は、対物レンズ140と被写体Sとの位置関係をXZ平面において示し、図50(b)は、当該位置関係の場合に対物レンズ140の視野に入る被写体Sの画像M6をXY平面において示している。図51及び図52についても同様である。なお、図50〜図52においては、理解を容易にするために、被写体Sを厚みのない平面とみなして該被写体S及び視野Vを図示している。   50A shows the positional relationship between the objective lens 140 and the subject S in the XZ plane, and FIG. 50B shows the image of the subject S that enters the field of view of the objective lens 140 in the case of the positional relationship. M6 is shown in the XY plane. The same applies to FIGS. 51 and 52. 50 to 52, for easy understanding, the subject S and the field of view V are illustrated on the assumption that the subject S is a plane having no thickness.

また、図50(a)に示すように、以下においては、観察光学系104(対物レンズ140)の視野サイズをFov(μm)、被写体深度をDOF(μm)、観察光学系104の合焦面と被写体Sとのなす角度を傾斜角度β(rad)、視野Vに含まれる被写体Sの領域に生じている傾斜の高さをz(μm)、視野サイズFovに対応する画像M6のサイズ(画像サイズ)をWimage(pixel)、画像M6内の合焦領域Rfocus6の幅をWFocal(pixel)とする。このうち、顕微鏡装置10及び撮像部211のスペックに依存するパラメータ(視野サイズFov、被写界深度DOF、画像サイズWimage)は、パラメータ記憶部241に予め記憶されており、必要に応じて読み出される。 Further, as shown in FIG. 50A, in the following, the field size of the observation optical system 104 (objective lens 140) is Fov (μm), the subject depth is DOF (μm), and the in-focus plane of the observation optical system 104 And the subject S is the tilt angle β (rad), the height of the tilt occurring in the region of the subject S included in the field of view V is z (μm), and the size of the image M6 corresponding to the field size Fov (image Size) is W image (pixel), and the width of the focus area R focus6 in the image M6 is W Focal (pixel). Among these, parameters (field size Fov, depth of field DOF, image size W image ) depending on the specifications of the microscope apparatus 10 and the imaging unit 211 are stored in advance in the parameter storage unit 241 and read out as necessary. It is.

図50は、観察光学系104の合焦面と被写体Sとの間に傾斜のズレが生じていない基準状態を示している。即ち傾斜角度β=γであり、この状態で撮像を行ったときに基準画像Mbaseが取得され、視野Vのうち、被写界深度DOFに含まれる領域Rが、画像Mbaseの合焦領域Rfocus(b)として検出される。一方、図51及び図52は、合焦面と被写体Sとの間に傾斜のズレが生じている状態を示している。 FIG. 50 shows a reference state in which there is no deviation in inclination between the focusing surface of the observation optical system 104 and the subject S. That is, the inclination angle β = γ, and the reference image M base is acquired when imaging is performed in this state, and the region R 0 included in the depth of field DOF in the field of view V is focused on the image M base . It is detected as a region R focus (b) . On the other hand, FIG. 51 and FIG. 52 show a state in which an inclination shift occurs between the focusing surface and the subject S.

まず、ステップS521において、傾斜情報算出部612は、差分幅ΔWから、観察光学系104の傾斜のズレ方向を算出する。傾斜のズレ方向は、差分幅ΔWの符号がプラスである場合、即ち、図51に示すように、合焦領域Rfocus6の幅が基準合焦領域Rfocus(b)の幅よりも狭い場合、観察光学系104の傾斜方向と同じと判定される。これは、図50に示す基準状態に対して、傾斜角度βが大きくなっていることを示す。一方、差分幅ΔWの符号がマイナスである場合、即ち、図52に示すように、合焦領域Rfocus6の幅が基準合焦領域Rfocus(b)の幅よりも広い場合、傾斜のズレ方向は、観察光学系104の傾斜方向と反対と判定される。これは、図50に示す基準状態に対して、傾斜角度βが小さくなっていることを示す。 First, in step S521, the tilt information calculation unit 612 calculates the tilt direction of the observation optical system 104 from the difference width ΔW. When the sign of the difference width ΔW is positive, that is, as shown in FIG. 51, the inclination deviation direction is when the width of the focusing area R focus6 is narrower than the width of the reference focusing area R focus (b) . It is determined that the observation optical system 104 is the same as the tilt direction. This indicates that the inclination angle β is larger than the reference state shown in FIG. On the other hand, when the sign of the difference width ΔW is negative, that is, as shown in FIG. 52, when the width of the focusing area R focus6 is wider than the width of the reference focusing area R focus (b) , the direction of the inclination shift Is determined to be opposite to the tilt direction of the observation optical system 104. This indicates that the inclination angle β is smaller than the reference state shown in FIG.

また、傾斜情報算出部612は、次式(6)によって与えられる傾斜角度のずれ量α’を算出する。
α’=γ−β …(6)
Further, the inclination information calculation unit 612 calculates an inclination angle deviation amount α ′ given by the following equation (6).
α ′ = γ−β (6)

式(6)において、傾斜角度βは次式(7)によって与えられる。
傾斜角度βの符号は差分幅ΔWと同じ符号とする。
In the equation (6), the inclination angle β is given by the following equation (7).
The sign of the inclination angle β is the same sign as the difference width ΔW.

また、式(7)において、傾斜の高さzは次式(8)によって与えられる。
In the equation (7), the inclination height z is given by the following equation (8).

続くステップS522において、傾斜情報算出部612は、差分支点ΔCを傾斜支点のずれ量として決定する。ここで、差分支点ΔC=0の場合、視野Vの中心が傾斜支点となる。また、差分支点ΔCの符号がプラスである場合、傾斜支点は視野Vの中心からプラスX方向にずれていることを表し、差分支点ΔCの符号がマイナスである場合、傾斜支点は視野Vの中心からマイナスX方向にずれていることを示す。   In subsequent step S522, the inclination information calculation unit 612 determines the difference fulcrum ΔC as the deviation amount of the inclination fulcrum. Here, when the difference fulcrum ΔC = 0, the center of the visual field V becomes the tilt fulcrum. In addition, when the sign of the difference fulcrum ΔC is plus, it indicates that the tilt fulcrum is shifted in the plus X direction from the center of the field of view V. When the sign of the difference fulcrum ΔC is minus, the tilt fulcrum is the center of the field of view V Indicates that it is shifted in the minus X direction.

続くステップS523において、傾斜情報算出部612は、ステップS521及びS522において取得した傾斜情報、即ち、傾斜角度のズレ方向、傾斜角度のずれ量α’及び傾斜支点のずれ量を、傾斜情報としてパラメータ記憶部241に記憶させる。   In subsequent step S523, the inclination information calculation unit 612 stores the inclination information acquired in steps S521 and S522, that is, the inclination angle deviation direction, the inclination angle deviation amount α ′, and the inclination fulcrum deviation amount as parameter information. Stored in the unit 241.

その後、アライメント装置60の動作はメインルーチンに戻る。
ステップS52に続くステップS14は、実施の形態2と同様である。
Thereafter, the operation of the alignment apparatus 60 returns to the main routine.
Step S14 following step S52 is the same as that in the second embodiment.

ステップS14に続くステップS53において、傾斜調整制御部31は、ステップS52において算出された傾斜情報をパラメータ記憶部241から読み出し、該傾斜情報に基づく制御信号を生成して顕微鏡装置10に出力することにより、ステージ131又は観察光学系104の傾斜を調整する。   In step S53 following step S14, the tilt adjustment control unit 31 reads the tilt information calculated in step S52 from the parameter storage unit 241, generates a control signal based on the tilt information, and outputs the control signal to the microscope apparatus 10. The inclination of the stage 131 or the observation optical system 104 is adjusted.

傾斜調整制御部31は、まず、視野Vの中心位置における被写体Sに対する合焦面の傾斜方向及び傾斜角度を調整する。
例えば図45に示すように、基準状態において、ステージ131の載置面131aを水平に設置し、観察光学系104を傾斜させた場合、傾斜調整制御部31は、傾斜調整駆動部105に制御信号を出力し、基準状態における傾斜角度γ(図50参照)の分だけ、予め傾斜させてある方向とは反対方向に観察光学系104の傾斜を戻させる。
The tilt adjustment control unit 31 first adjusts the tilt direction and tilt angle of the focal plane with respect to the subject S at the center position of the visual field V.
For example, as shown in FIG. 45, in the reference state, when the mounting surface 131a of the stage 131 is installed horizontally and the observation optical system 104 is tilted, the tilt adjustment control unit 31 sends a control signal to the tilt adjustment drive unit 105. Is output, and the tilt of the observation optical system 104 is returned in the direction opposite to the previously tilted direction by the tilt angle γ (see FIG. 50) in the reference state.

続いて、傾斜調整制御部31は、ステージ131の傾斜を調整する。具体的には、図51に示すように、被写体Sが合焦面に対して右上がりの場合、調節つまみ駆動部152(図2参照)に制御信号を出力し、XZ面内においてステージ131をステージ中心に対して時計回りに回転させる。反対に、図52に示すように、被写体Sが合焦面に対して右下がりの場合、調節つまみ駆動部152に制御信号を出力し、XZ面内においてステージ131をステージ中心に対して反時計回りに回転させる。   Subsequently, the tilt adjustment control unit 31 adjusts the tilt of the stage 131. Specifically, as shown in FIG. 51, when the subject S moves up to the right with respect to the in-focus plane, a control signal is output to the adjustment knob driving unit 152 (see FIG. 2), and the stage 131 is moved in the XZ plane. Rotate clockwise around the stage center. On the other hand, as shown in FIG. 52, when the subject S is lowered to the right with respect to the in-focus plane, a control signal is output to the adjustment knob driving unit 152, and the stage 131 is counterclockwise with respect to the stage center in the XZ plane. Rotate around.

一方、図46に示すように、基準状態において、光軸Lが鉛直となるように観察光学系104を設置し、被写体S側を傾斜させた場合、台座106を除去するなどして被写体Sを水平状態に戻し、観察光学系104の傾斜を調整する。具体的には、被写体Sが合焦面に対して右上がりの場合、傾斜調整駆動部105に制御信号を出力し、XZ面内において観察光学系104をイメージャ中心に対して反時計回りとなるように回転させる。反対に、被写体Sが合焦面に対して右下がりの場合、傾斜調整駆動部105に制御信号を出力し、XZ面内において観察光学系104をイメージャ中心に対して時計回りとなるように回転させる。   On the other hand, as shown in FIG. 46, in the reference state, when the observation optical system 104 is installed so that the optical axis L is vertical and the subject S side is tilted, the subject S is removed by removing the base 106 or the like. Returning to the horizontal state, the inclination of the observation optical system 104 is adjusted. Specifically, when the subject S is raised to the right with respect to the in-focus plane, a control signal is output to the tilt adjustment driving unit 105, and the observation optical system 104 is counterclockwise with respect to the imager center in the XZ plane. Rotate like so. On the contrary, when the subject S is lowered to the right with respect to the in-focus plane, a control signal is output to the tilt adjustment driving unit 105 and the observation optical system 104 is rotated in the XZ plane so as to be clockwise with respect to the imager center. Let

続いて、傾斜調整制御部31は、傾斜支点のずれ領域に基づき、該ずれ量の符号と反対方向に、ずれ量の分だけステージ131を移動させる。例えば、X方向におけるずれ量の符号がプラスである場合、ステージ駆動部132に制御信号を出力し、ステージ131をマイナス方向に移動させる。反対に、ずれ量の符号がマイナスである場合、ステージ駆動部132に制御信号を出力し、ステージ131をプラスX方向に移動させる。これにより、傾斜支点が観察光学系104の視野の中心(即ち、光軸Lが通る位置)と一致し、適切な視野の合焦画像を取得することができるようになる。
なお、Y方向における調整方法も同様である。
Subsequently, the tilt adjustment control unit 31 moves the stage 131 in the direction opposite to the sign of the shift amount by the shift amount based on the shift region of the tilt fulcrum. For example, when the sign of the shift amount in the X direction is positive, a control signal is output to the stage driving unit 132, and the stage 131 is moved in the negative direction. On the other hand, when the sign of the shift amount is negative, a control signal is output to the stage drive unit 132, and the stage 131 is moved in the positive X direction. As a result, the tilt fulcrum coincides with the center of the visual field of the observation optical system 104 (that is, the position through which the optical axis L passes), and an in-focus image with an appropriate visual field can be acquired.
The adjustment method in the Y direction is the same.

以上説明したように、実施の形態5によれば、観察光学系104又は被写体Sを既知の角度だけ予め傾斜させて撮像を行うので、観察光学系104又はステージ131をZ方向に移動させることなく、傾斜方向を特定することができる。また、片ボケが生じている場合にも視野Vを移動させることなく、全ての傾斜情報を取得することができる。従って、顕微鏡装置10のアライメントを高速且つ効率良く行うことができる。また、観察光学系104又は被写体Sを傾斜させて撮像を行う場合、合焦領域と非合焦領域とのコントラストが大きくなるように調整することができるため、合焦領域の検出精度を向上させることも可能である。   As described above, according to the fifth embodiment, imaging is performed by tilting the observation optical system 104 or the subject S in advance by a known angle, so that the observation optical system 104 or the stage 131 is not moved in the Z direction. The inclination direction can be specified. Further, even when one blur occurs, all the tilt information can be acquired without moving the visual field V. Therefore, the alignment of the microscope apparatus 10 can be performed at high speed and efficiently. Further, when imaging is performed with the observation optical system 104 or the subject S tilted, the contrast between the in-focus area and the out-of-focus area can be adjusted so that the detection accuracy of the in-focus area is improved. It is also possible.

以上説明した実施の形態1〜5及び変形例はそのままに限定されるものではなく、各実施の形態及び変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を除外して形成してもよい。あるいは、異なる実施の形態に示した構成要素を適宜組み合わせて形成してもよい。   The first to fifth embodiments and the modifications described above are not limited as they are, and various inventions are formed by appropriately combining a plurality of components disclosed in the embodiments and the modifications. be able to. For example, some components may be excluded from all the components shown in the embodiment. Or you may form combining the component shown in different embodiment suitably.

1〜5 顕微鏡システム
10 顕微鏡装置
20、30、40、50、60 アライメント装置
21 画像取得部
22 撮像制御部
23、41、51、61 制御部
24 記憶部
25 入力部
26 出力部
27 表示装置
31 傾斜調整制御部
100 アーム
101 三眼鏡筒ユニット
102 鏡筒
103 接眼レンズユニット
104 観察光学系
105 傾斜調整駆動部
106 台座
110 落射照明ユニット
111 落射照明用光源
112 落射照明光学系
120 透過照明ユニット
121 透過照明用光源
122 透過照明光学系
130 電動ステージユニット
131 ステージ
132 ステージ駆動部
133 位置検出部
140、141 対物レンズ
142 レボルバ
150 ステージ傾斜調節部
152 調節つまみ駆動部
211 撮像部
212 メモリ
231、510 合焦領域検出部
232、612 傾斜情報算出部
241 パラメータ記憶部
242 プログラム記憶部
411 視野移動判定部
511 領域分類部
512 非合焦領域探索判定部
611 合焦位置比較部
1-5 Microscope system 10 Microscope device 20, 30, 40, 50, 60 Alignment device 21 Image acquisition unit 22 Imaging control unit 23, 41, 51, 61 Control unit 24 Storage unit 25 Input unit 26 Output unit 27 Display device 31 Tilt Adjustment control unit 100 Arm 101 Trinocular tube unit 102 Lens tube 103 Eyepiece unit 104 Observation optical system 105 Tilt adjustment drive unit 106 Base 110 Epi-illumination unit 111 Epi-illumination light source 112 Epi-illumination optical system 120 Trans-illumination unit 121 Trans-illumination unit Light source 122 Transmission illumination optical system 130 Electric stage unit 131 Stage 132 Stage drive unit 133 Position detection unit 140, 141 Objective lens 142 Revolver 150 Stage tilt adjustment unit 152 Adjustment knob drive unit 211 Imaging unit 212 Memory 23 , 510 Go focus area detection unit 232,612 gradient information calculating unit 241 parameter storage unit 242 program storage unit 411 view movement determination section 511 area classification unit 512 unfocused region searching determination section 611 focus position comparator unit

Claims (10)

被写体と対向して設けられた観察光学系の視野に入る前記被写体の領域が撮像された画像を取得する画像取得部と、
前記画像から合焦領域を検出する合焦領域検出手段と、
前記合焦領域検出手段によって検出された前記合焦領域に関する情報に基づいて、前記観察光学系と前記被写体との間の傾斜情報を算出する傾斜情報算出手段と、
を備えることを特徴とするアライメント装置。
An image acquisition unit for acquiring an image in which the region of the subject entering the field of view of an observation optical system provided opposite to the subject is captured;
A focusing area detecting means for detecting a focusing area from the image;
Inclination information calculation means for calculating inclination information between the observation optical system and the subject based on information on the in-focus area detected by the in-focus area detection means;
An alignment apparatus comprising:
前記合焦領域に関する情報は、前記画像における前記合焦領域の位置及び幅であることを特徴とする請求項1に記載のアライメント装置。   The alignment apparatus according to claim 1, wherein the information related to the focus area is a position and a width of the focus area in the image. 前記傾斜情報は、前記観察光学系の合焦面と前記被写体との間に生じている傾斜の方向と傾斜の角度との少なくともいずれかであることを特徴とする請求項1又は2に記載のアライメント装置。   3. The tilt information according to claim 1, wherein the tilt information is at least one of a tilt direction and a tilt angle generated between a focusing surface of the observation optical system and the subject. Alignment device. 前記傾斜情報算出手段により算出された前記傾斜情報に基づいて、前記被写体と前記観察光学系との間に生じている傾斜を調整する制御を行う傾斜調整制御手段をさらに備えることを特徴とする請求項1〜3のいずれか1項に記載のアライメント装置。   The apparatus further comprises a tilt adjustment control unit that performs control to adjust a tilt generated between the subject and the observation optical system based on the tilt information calculated by the tilt information calculation unit. Item 4. The alignment apparatus according to any one of Items 1 to 3. 前記傾斜情報算出手段により算出された前記傾斜情報を表示する表示手段をさらに備えることを特徴とする請求項1〜4のいずれか1項に記載のアライメント装置。   The alignment apparatus according to claim 1, further comprising display means for displaying the inclination information calculated by the inclination information calculation means. 前記画像から検出された合焦領域と該合焦領域以外の領域との位置関係に基づき、前記被写体に対する前記観察光学系の視野を移動させて撮像を行うか否かを判定する判定手段をさらに備え、
前記判定手段が前記視野を移動させて撮像を行うと判定した場合に、前記画像取得部は、前記被写体に対する前記観察光学系の視野が前記画像とは異なる第2の画像を取得し、
前記合焦領域検出手段は、前記第2の画像内から合焦領域をさらに検出し、
前記傾斜情報算出手段は、前記画像及び前記第2の画像からそれぞれ検出された前記合焦領域に関する情報に基づいて前記傾斜情報を算出する、
ことを特徴とする請求項1〜5のいずれか1項に記載のアライメント装置。
A determination unit for determining whether to perform imaging by moving a field of view of the observation optical system with respect to the subject based on a positional relationship between a focus area detected from the image and an area other than the focus area; Prepared,
When it is determined that the determination unit moves the field of view and performs imaging, the image acquisition unit acquires a second image in which the field of view of the observation optical system with respect to the subject is different from the image,
The focus area detection means further detects a focus area from within the second image,
The tilt information calculating means calculates the tilt information based on information about the in-focus area detected from the image and the second image, respectively.
The alignment apparatus according to claim 1, wherein:
前記観察光学系の合焦面と前記被写体とが既知の傾斜角度をなす場合に、前記観察光学系に対して前記被写体が合焦される領域に関する情報である基準合焦情報を取得し、該基準合焦情報と、前記合焦領域検出手段により前記画像から検出された合焦領域に関する情報とを比較する比較手段をさらに備え、
前記傾斜情報算出手段は、前記比較手段による比較結果に基づいて、前記傾斜情報を算出することを特徴とする、
請求項1〜5のいずれか1項に記載のアライメント装置。
When the focusing surface of the observation optical system and the subject form a known tilt angle, reference focusing information that is information regarding a region where the subject is focused with respect to the observation optical system is acquired, Comparing means for comparing the reference focus information with information on the focus area detected from the image by the focus area detection means,
The inclination information calculation means calculates the inclination information based on a comparison result by the comparison means,
The alignment apparatus of any one of Claims 1-5.
請求項1〜7のいずれか1項に記載のアライメント装置と、
前記観察光学系と、
前記被検体が載置されるステージと、
を備えることを特徴とする顕微鏡システム。
The alignment apparatus according to any one of claims 1 to 7,
The observation optical system;
A stage on which the subject is placed;
A microscope system comprising:
被写体と対向して設けられた観察光学系の視野に入る前記被写体の領域が撮像された画像を取得する画像取得ステップと、
前記画像から合焦領域を検出する合焦領域検出ステップと、
前記合焦領域検出ステップにおいて検出された前記合焦領域に関する情報に基づいて、前記観察光学系と前記被写体との間の傾斜情報を算出する傾斜情報算出ステップと、
を含むことを特徴とするアライメント方法。
An image acquisition step of acquiring an image in which a region of the subject entering the field of view of an observation optical system provided facing the subject is captured;
A focus area detection step for detecting a focus area from the image;
Inclination information calculation step for calculating inclination information between the observation optical system and the subject based on information on the in-focus area detected in the in-focus area detection step;
An alignment method comprising:
被写体と対向して設けられた観察光学系の視野に入る前記被写体の領域が撮像された画像を取得する画像取得ステップと、
前記画像から合焦領域を検出する合焦領域検出ステップと、
前記合焦領域検出ステップにおいて検出された前記合焦領域に関する情報に基づいて、前記観察光学系と前記被写体との間の傾斜情報を算出する傾斜情報算出ステップと、
をコンピュータに実行させることを特徴とするアライメントプログラム。

An image acquisition step of acquiring an image in which a region of the subject entering the field of view of an observation optical system provided facing the subject is captured;
A focus area detection step for detecting a focus area from the image;
Inclination information calculation step for calculating inclination information between the observation optical system and the subject based on information on the in-focus area detected in the in-focus area detection step;
An alignment program for causing a computer to execute.

JP2013243356A 2013-11-25 2013-11-25 Alignment apparatus, microscope system, alignment method, and alignment program Active JP6312410B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013243356A JP6312410B2 (en) 2013-11-25 2013-11-25 Alignment apparatus, microscope system, alignment method, and alignment program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013243356A JP6312410B2 (en) 2013-11-25 2013-11-25 Alignment apparatus, microscope system, alignment method, and alignment program

Publications (2)

Publication Number Publication Date
JP2015102694A true JP2015102694A (en) 2015-06-04
JP6312410B2 JP6312410B2 (en) 2018-04-18

Family

ID=53378425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013243356A Active JP6312410B2 (en) 2013-11-25 2013-11-25 Alignment apparatus, microscope system, alignment method, and alignment program

Country Status (1)

Country Link
JP (1) JP6312410B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017198985A (en) * 2016-04-28 2017-11-02 イズメディア カンパニー リミテッド Device and method for confirming table tilting
JP7433848B2 (en) 2019-03-15 2024-02-20 キヤノン株式会社 Imaging device, computer program, storage medium, and imaging control method

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61262719A (en) * 1985-05-17 1986-11-20 Fujitsu Ltd Slit light source
JPH08186757A (en) * 1994-12-28 1996-07-16 Canon Inc Electronic camera
JP2000074623A (en) * 1998-08-27 2000-03-14 Canon Inc Face position measuring method and face position measuring equipment
JP2004079069A (en) * 2002-08-16 2004-03-11 Funai Electric Co Ltd Optical disk device
JP2006098677A (en) * 2004-09-29 2006-04-13 Nikon Corp Camera
JP2006162554A (en) * 2004-12-10 2006-06-22 Matsushita Electric Ind Co Ltd Ranging method, skew detection method, and flip-chip implementation method
JP2006319544A (en) * 2005-05-11 2006-11-24 Olympus Imaging Corp Device and method for measuring inclination of image sensor
JP2008003394A (en) * 2006-06-23 2008-01-10 Nikon Corp Camera, camera system, and position adjustment method
JP2010078534A (en) * 2008-09-29 2010-04-08 Hitachi Ltd Display system
JP2010256724A (en) * 2009-04-27 2010-11-11 Olympus Corp Observation device
JP2011150277A (en) * 2009-12-25 2011-08-04 Sony Corp Stage control device, stage control method, stage control program and microscope
JP2011221280A (en) * 2010-04-09 2011-11-04 Olympus Corp Virtual slide creating device and virtual slide creating method

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61262719A (en) * 1985-05-17 1986-11-20 Fujitsu Ltd Slit light source
JPH08186757A (en) * 1994-12-28 1996-07-16 Canon Inc Electronic camera
JP2000074623A (en) * 1998-08-27 2000-03-14 Canon Inc Face position measuring method and face position measuring equipment
JP2004079069A (en) * 2002-08-16 2004-03-11 Funai Electric Co Ltd Optical disk device
JP2006098677A (en) * 2004-09-29 2006-04-13 Nikon Corp Camera
JP2006162554A (en) * 2004-12-10 2006-06-22 Matsushita Electric Ind Co Ltd Ranging method, skew detection method, and flip-chip implementation method
JP2006319544A (en) * 2005-05-11 2006-11-24 Olympus Imaging Corp Device and method for measuring inclination of image sensor
JP2008003394A (en) * 2006-06-23 2008-01-10 Nikon Corp Camera, camera system, and position adjustment method
JP2010078534A (en) * 2008-09-29 2010-04-08 Hitachi Ltd Display system
JP2010256724A (en) * 2009-04-27 2010-11-11 Olympus Corp Observation device
JP2011150277A (en) * 2009-12-25 2011-08-04 Sony Corp Stage control device, stage control method, stage control program and microscope
JP2011221280A (en) * 2010-04-09 2011-11-04 Olympus Corp Virtual slide creating device and virtual slide creating method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017198985A (en) * 2016-04-28 2017-11-02 イズメディア カンパニー リミテッド Device and method for confirming table tilting
JP7433848B2 (en) 2019-03-15 2024-02-20 キヤノン株式会社 Imaging device, computer program, storage medium, and imaging control method

Also Published As

Publication number Publication date
JP6312410B2 (en) 2018-04-18

Similar Documents

Publication Publication Date Title
CN109417602B (en) Image processing method, image processing apparatus, image capturing apparatus, and image capturing method
EP3035104B1 (en) Microscope system and setting value calculation method
US10444486B2 (en) Systems and methods for detection of blank fields in digital microscopes
US9383569B2 (en) Magnification observation device
CN109085113B (en) Automatic focusing method and device for cervical exfoliated cell detection device
WO2015012279A1 (en) Image processing device, image processing method, microscope system, and image processing program
US9420160B2 (en) Information processing apparatus, information processing method, program, and vision measuring apparatus
CN110300255B (en) Information processing device, information processing method, program, and vision measuring device
US11067771B2 (en) Observation apparatus, control method, and computer-readable medium for changing a relative distance between a stage and optical system based on determined reliability of in-focus position
US9482855B2 (en) Microscope system
US20140267675A1 (en) Digital microscope apparatus, imaging method therefor, and program
JP6147006B2 (en) Imaging apparatus, microscope system, and imaging method
JP6887875B2 (en) Microscope system, control method, and program
JP6563486B2 (en) Microscope observation system, microscope observation method, and microscope observation program
US10429632B2 (en) Microscopy system, microscopy method, and computer-readable recording medium
JP6312410B2 (en) Alignment apparatus, microscope system, alignment method, and alignment program
WO2017098587A1 (en) Microscopic observation system, microscopic observation method, and microscopic observation program
JP5996462B2 (en) Image processing apparatus, microscope system, and image processing method
JP5730696B2 (en) Image processing apparatus and image display system
JP6422761B2 (en) Microscope system and method for calculating relationship between Z position and set value of correction device
JP6423261B2 (en) Microscope system, function calculation method, and program
JP2015210396A (en) Aligment device, microscope system, alignment method and alignment program
JP2010121955A (en) Height information acquisition device, height information acquisition method, and program
JP5881445B2 (en) microscope
WO2024014079A1 (en) Cell observation device and imaging method used in cell observation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180320

R150 Certificate of patent or registration of utility model

Ref document number: 6312410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150