JP2020048688A - Ophthalmologic apparatus and control method of ophthalmologic apparatus - Google Patents

Ophthalmologic apparatus and control method of ophthalmologic apparatus Download PDF

Info

Publication number
JP2020048688A
JP2020048688A JP2018178923A JP2018178923A JP2020048688A JP 2020048688 A JP2020048688 A JP 2020048688A JP 2018178923 A JP2018178923 A JP 2018178923A JP 2018178923 A JP2018178923 A JP 2018178923A JP 2020048688 A JP2020048688 A JP 2020048688A
Authority
JP
Japan
Prior art keywords
unit
inspection
image
eye
anterior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018178923A
Other languages
Japanese (ja)
Other versions
JP7231366B2 (en
Inventor
純幸 宇佐美
Sumiyuki Usami
純幸 宇佐美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2018178923A priority Critical patent/JP7231366B2/en
Publication of JP2020048688A publication Critical patent/JP2020048688A/en
Application granted granted Critical
Publication of JP7231366B2 publication Critical patent/JP7231366B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

To acquire a desired cross-sectional image even when a subject makes a blink or the like, and an examination range of the ocular fundus of an eye to be examined is brought into a state that the examination is not possible.SOLUTION: A control method of an ophthalmologic apparatus for optically examining an eye to be examined includes: an imaging step (S8) for acquiring an image of the anterior eye part by imaging the anterior eye part of the eye to be examined; a determination step (S9) for determining whether or not an OCT unit is in a state that a scan region R can be examined on the basis of the anterior eye part imaged in the imaging step (S8); a control step (S12) for controlling the OCT unit so as to re-execute the examination of the scan region R when it is determined in the determination step (S9) that the OCT unit 100 is not in a state that the scan region R can be examined; and an image forming step (S13) for forming a cross-sectional image of the ocular fundus on the basis of a detection signal detected by the OCT unit.SELECTED DRAWING: Figure 6

Description

本発明は、被検眼を光学的に検査する眼科装置および眼科装置の制御方法に関する。   The present invention relates to an ophthalmologic apparatus that optically inspects an eye to be examined and a control method of the ophthalmologic apparatus.

従来、被検眼を光学的に検査する眼科装置として、光干渉断層計が知られている。光干渉断層計は、低コヒーレンス光を二分し、一方(信号光)を眼底に導き、他方(参照光)を所定の参照物体に導くとともに、眼底を経由した信号光と、参照物体で反射された参照光を重畳して得られる干渉光に基づいて、眼底の表面及び深層組織の断層画像を形成する装置である(例えば、特許文献1参照)。特許文献1に開示される眼科装置は、低コヒーレンス光である信号光を眼底上において走査し、信号光の眼底反射光と参照光とを重畳して干渉光を得ている。   2. Description of the Related Art Conventionally, an optical coherence tomography is known as an ophthalmologic apparatus for optically inspecting an eye to be examined. The optical coherence tomography divides the low coherence light into two, one (signal light) to the fundus, the other (reference light) to a predetermined reference object, and the signal light passing through the fundus and reflected by the reference object. It is a device that forms a tomographic image of the surface of the fundus and deep tissue based on interference light obtained by superimposing the reference light (for example, see Patent Document 1). The ophthalmologic apparatus disclosed in Patent Literature 1 scans the fundus with signal light that is low coherence light, and obtains interference light by superimposing fundus reflection light of the signal light and reference light.

特開2007−117714号公報JP 2007-117714 A

しかしながら、光干渉断層計である眼科装置において、信号光を眼底に導いて判定反射光を得ている際に、被検者が瞬き等を行うと、信号光が眼底に導かれない状態となる。この場合、信号光が導かれなかった眼底の領域の断面像が得られない。特許文献1に記載の眼科装置では、被検者が瞬き等を行った場合の対策がなされておらず、被検者が瞬き等を行った場合に所望の断面像が得られない可能性がある。   However, in an ophthalmologic apparatus that is an optical coherence tomography, when the subject blinks while guiding the signal light to the fundus to obtain the determination reflected light, the signal light is not guided to the fundus. . In this case, a cross-sectional image of the fundus region to which the signal light has not been guided cannot be obtained. In the ophthalmologic apparatus described in Patent Literature 1, no countermeasures are taken when the subject blinks or the like, and a desired cross-sectional image may not be obtained when the subject blinks or the like. is there.

本発明は、前記課題を解決するためになされたものであり、被検者が瞬き等を行って被検眼の眼底の検査範囲を検査不能な状態となった場合であっても、所望の断面像を得ることが可能な眼科装置およびその制御方法を提供することを目的とする。   The present invention has been made in order to solve the above-mentioned problem, and even when the subject blinks or the like, and the examination range of the fundus of the eye to be examined cannot be examined, a desired cross section is obtained. An object of the present invention is to provide an ophthalmologic apparatus capable of obtaining an image and a control method thereof.

前記課題は、本発明によれば、被検眼を光学的に検査する眼科装置であって、前記被検眼の眼底の検査範囲を光学的に検査して検出信号を出力する検査用光学系を含む検査部と、前記検査部が検出する前記検出信号に基づいて前記眼底の断面像を形成する画像形成部と、前記被検眼の前眼部を撮像して前眼部像を取得する撮像部と、前記眼科装置を制御する制御部と、前記撮像部が撮像した前記前眼部像に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定する判定部と、を備え、前記制御部は、前記検査部が前記検査範囲を検査可能な状態でないと前記判定部が判定した場合に、前記検査範囲の検査を再度実行するよう前記検査部を制御することを特徴とする眼科装置により解決される。   According to the present invention, the object is an ophthalmologic apparatus that optically inspects an eye to be inspected, and includes an inspection optical system that optically inspects an inspection area of a fundus of the eye to be inspected and outputs a detection signal. An inspection unit, an image forming unit that forms a cross-sectional image of the fundus oculi based on the detection signal detected by the inspection unit, and an imaging unit that captures an anterior segment of the subject's eye to acquire an anterior segment image. A control unit that controls the ophthalmic apparatus, and a determination unit that determines whether the inspection unit is in a state in which the inspection range can be inspected based on the anterior eye image captured by the imaging unit. Wherein the control unit controls the inspection unit to execute the inspection of the inspection range again when the determination unit determines that the inspection unit is not in a state in which the inspection range can be inspected. To solve the problem.

本構成の眼科装置によれば、検査部が被検眼の眼底の検査範囲を光学的に検査することにより検出信号が出力され、検出信号に基づいて画像形成部が眼底の断面像を形成する。撮像部は被検眼の前眼部を撮像して前眼部像を取得し、判定部が前眼部像に基づいて検査部が検査範囲を検査可能な状態であるかどうかを判定する。検査部が検査範囲を検査可能な状態でない場合とは、例えば、被検者が瞬き等を行ったために検査部から検出信号が出力されない場合である。このような場合に、制御部は、検査範囲の検査を再度実行するよう検査部を制御する。そのため、被検者が瞬き等を行って被検眼の眼底の検査範囲を検査不能な状態となった場合であっても、所望の断面像を得ることができる。   According to the ophthalmologic apparatus of this configuration, the inspection unit optically inspects the inspection range of the fundus of the eye to be inspected, and a detection signal is output, and the image forming unit forms a cross-sectional image of the fundus based on the detection signal. The imaging unit captures the anterior segment of the subject's eye to acquire an anterior segment image, and the determining unit determines whether the inspection unit is in a state where the inspection range can be inspected based on the anterior segment image. The case where the inspection unit is not in a state where the inspection range can be inspected is, for example, a case where a detection signal is not output from the inspection unit because the subject blinks or the like. In such a case, the control unit controls the inspection unit to execute the inspection of the inspection range again. Therefore, even when the subject blinks or the like and the examination range of the fundus of the subject's eye cannot be examined, a desired cross-sectional image can be obtained.

本発明の眼科装置において、好ましくは、前記撮像部が撮像した前記前眼部像に基づいて、前記被検眼の瞳孔に相当する画像領域を特定する特定部を備え、前記判定部は、前記特定部の特定結果に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定することを特徴とする。
瞳孔は他の部位よりも輝度が低いため、瞳孔に相当する画像領域を特定することは比較的容易である。そのため、本構成の眼科装置によれば、検査部が検査範囲を検査可能な状態であるかどうかを、比較的容易な処理により精度よく判定することができる。
In the ophthalmologic apparatus according to the present invention, preferably, the ophthalmologic apparatus further includes a specifying unit that specifies an image region corresponding to a pupil of the subject's eye based on the anterior eye image captured by the imaging unit. And determining whether or not the inspection unit is in a state in which the inspection range can be inspected based on a result of specifying the unit.
Since the pupil has lower luminance than other parts, it is relatively easy to specify an image area corresponding to the pupil. Therefore, according to the ophthalmologic apparatus having this configuration, it is possible to accurately determine whether or not the inspection unit is in a state where the inspection range can be inspected by relatively easy processing.

本発明の眼科装置において、好ましくは、前記判定部は、前記特定部により前記画像領域が特定されない場合に、前記検査部が前記検査範囲を検査可能な状態でないと判定することを特徴とする。
例えば、被検者が瞬き等を行ったために検査部から検出信号が出力されない場合、特定部により被検眼の瞳孔に相当する画像領域が特定されない。本構成の眼科装置によれば、このような場合であっても、検査範囲の検査を再度実行して所望の断面像を得ることができる。
In the ophthalmologic apparatus according to the present invention, preferably, the determination unit determines that the inspection unit is not in a state where the inspection range can be inspected when the image area is not identified by the identification unit.
For example, when the detection signal is not output from the inspection unit because the subject blinks or the like, the specifying unit does not specify the image area corresponding to the pupil of the eye to be inspected. According to the ophthalmologic apparatus of this configuration, even in such a case, the examination of the examination range can be executed again to obtain a desired cross-sectional image.

本発明の眼科装置において、好ましくは、前記判定部は、前記特定部により特定された前記画像領域の位置に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定することを特徴とする。
例えば、被検者が視線を正面から大きくずらしてしまうと、特定部により特定された瞳孔に相当する画像領域の位置が正面から大きくずれてしまう。本構成の眼科装置によれば、このような場合に、検査範囲の検査を再度実行し、所望の断面像を得ることができる。
In the ophthalmologic apparatus according to the present invention, preferably, the determination unit determines whether or not the inspection unit is in a state where the inspection range can be inspected based on a position of the image area specified by the specifying unit. It is characterized by the following.
For example, if the subject shifts his / her gaze greatly from the front, the position of the image area corresponding to the pupil specified by the specifying unit is greatly shifted from the front. According to the ophthalmologic apparatus of this configuration, in such a case, the inspection of the inspection range is performed again, and a desired cross-sectional image can be obtained.

本発明の眼科装置において、好ましくは、前記制御部は、前記検査範囲を検査可能な状態でないと前記判定部が判定した場合に、前記検査範囲の全領域を再び光学的に検査するように前記検査部を制御することを特徴とする。
本構成の眼科装置によれば、検査範囲を検査可能な状態でない場合に検査範囲の全領域を再び光学的に検査するため、使用者による再検査の操作等を要することなく、連続的に検査した得た検出信号から眼底の断面像を取得することができる。
In the ophthalmologic apparatus according to the present invention, preferably, the control unit is configured to optically inspect the entire inspection range again when the determination unit determines that the inspection range is not in a testable state. The inspection unit is controlled.
According to the ophthalmologic apparatus of this configuration, when the inspection range is not in a state in which the inspection can be performed, the entire area of the inspection range is optically inspected again. A cross-sectional image of the fundus can be obtained from the obtained detection signal.

本発明の眼科装置において、好ましくは、前記制御部は、前記検査範囲を検査可能な状態でないと前記判定部が判定した場合に、前記検査範囲のうち前記検査部による検査が行われていない再検査範囲を検査するように前記検査部を制御することを特徴とする。
本構成の眼科装置によれば、検査範囲を検査可能な状態でない場合に検査部による検査が行われていない領域のみを再検査するため、再検査に要する時間を少なくして早期に眼底の断面像を取得することができる。
In the ophthalmologic apparatus according to the present invention, preferably, when the determination unit determines that the inspection range is not in a state in which the inspection range can be inspected, the control unit determines whether or not the inspection by the inspection unit is not performed in the inspection range. The inspection unit is controlled to inspect an inspection range.
According to the ophthalmologic apparatus of this configuration, when the examination range is not in an inspectable state, only the area that has not been examined by the examination unit is re-examined. An image can be obtained.

本発明の眼科装置において、好ましくは、前記検査部は、光源からの光を信号光と参照光とに分割して前記信号光で前記被検眼の前記眼底を走査し、前記眼底を経由した前記信号光と前記参照光とを干渉させた干渉光に応じた前記検出信号を検出することを特徴とする。
本構成の眼科装置によれば、反射光と参照光とを重ね合わせて得られる干渉光に応じた検出信号を検出することにより、光の進行方向に直交する断面における被測定物体の断面像を形成することができる。
In the ophthalmologic apparatus of the present invention, preferably, the inspection unit scans the fundus of the eye to be inspected with the signal light by dividing light from a light source into signal light and reference light, and passes through the fundus. Detecting the detection signal corresponding to the interference light that causes the signal light and the reference light to interfere with each other.
According to the ophthalmologic apparatus of this configuration, by detecting the detection signal corresponding to the interference light obtained by superimposing the reflected light and the reference light, the cross-sectional image of the measured object in the cross section orthogonal to the light traveling direction is obtained. Can be formed.

本発明の眼科装置において、好ましくは、前記撮像部が撮像した前記前眼部像に基づいて前記被検眼と前記検査用光学系との間の変位を算出する算出部と、前記検査用光学系を移動する移動機構と、を備え、前記制御部は、前記算出部が算出した前記変位に応じて、前記被検眼に対する前記検査用光学系が所定の位置関係を維持するように前記移動機構を制御する。
本構成の眼科装置によれば、被検眼に対する検査用光学系が所定の位置関係を維持するために用いられる前眼部像を用いて、検査部が検査範囲を検査可能な状態であるかどうかを判定することができる。
In the ophthalmologic apparatus of the present invention, preferably, a calculation unit that calculates a displacement between the subject's eye and the inspection optical system based on the anterior eye image captured by the imaging unit, and the inspection optical system And a control mechanism, wherein the control unit controls the moving mechanism so that the inspection optical system maintains a predetermined positional relationship with respect to the eye to be inspected in accordance with the displacement calculated by the calculation unit. Control.
According to the ophthalmologic apparatus of this configuration, the inspection optical system for the eye to be inspected uses the anterior ocular segment image used to maintain the predetermined positional relationship, and whether the inspection unit is in a state where the inspection range can be inspected. Can be determined.

本発明の眼科装置において、好ましくは、前記撮像部は、異なる2以上の方向から前記被検眼の前記前眼部を撮像して2以上の前記前眼部像を取得する2以上の前眼部カメラを有し、前記算出部は、2以上の前記前眼部カメラの位置と前記2以上の前眼部像とに基づいて、前記被検眼の3次元位置を算出することを特徴とする。
本構成の眼科装置によれば、2以上の前眼部カメラの位置と2以上の前眼部像とに基づいて被検眼の3次元位置を算出し、被検眼に対する検査用光学系の所定の位置関係を維持するよう移動機構を制御することができる。
In the ophthalmologic apparatus according to the present invention, preferably, the imaging unit captures the anterior segment of the subject eye from two or more different directions to obtain two or more anterior segment images. A camera, wherein the calculation unit calculates a three-dimensional position of the eye to be inspected based on two or more anterior eye camera positions and the two or more anterior eye images.
According to the ophthalmologic apparatus of this configuration, the three-dimensional position of the eye to be inspected is calculated based on the positions of the two or more anterior eye cameras and the two or more anterior eye images, and the predetermined position of the inspection optical system for the eye to be inspected is determined. The moving mechanism can be controlled to maintain the positional relationship.

本発明の眼科装置において、好ましくは、2以上の前記前眼部カメラは、それぞれ同一のフレームレートで複数の前記前眼部像を連続的に撮像し、前記制御部は、前記算出部が前記被検眼の3次元位置を算出する場合は2以上の前記前眼部カメラの撮像タイミングを一致させ、前記検査部が前記検査範囲を検査可能な状態であるかどうかを前記判定部が判定する場合は2以上の前記前眼部カメラの撮像タイミングを異ならせるよう前記撮像部を制御することができる。   In the ophthalmologic apparatus of the present invention, preferably, the two or more anterior eye cameras continuously capture a plurality of the anterior eye images at the same frame rate, respectively, and the control unit is configured such that the calculation unit is When calculating the three-dimensional position of the subject's eye, the imaging timings of the two or more anterior eye cameras are matched, and the determination unit determines whether the inspection unit is ready to inspect the inspection range. Can control the imaging unit so that the imaging timings of the two or more anterior eye cameras are different.

本構成の眼科装置によれば、被検眼の3次元位置を算出して被検眼に対する検査用光学系の所定の位置関係を維持する場合には、2以上の前眼部カメラの撮像タイミングを一致させて被検眼の3次元位置を精度よく算出することができる。一方、検査部が検査範囲を検査可能な状態であるかどうかを判定する場合には、以上の前眼部カメラの撮像タイミングを異ならせることで、撮像部の撮像間隔(フレームレート)を短くすることができる。撮像部の撮像間隔が短くなると、検査部が検査範囲を検査可能な状態であるかどうかを判定する間隔が短くなり、判定の精度が向上する。   According to the ophthalmologic apparatus of this configuration, when calculating the three-dimensional position of the eye to be inspected and maintaining the predetermined positional relationship of the inspection optical system with respect to the eye to be inspected, the imaging timings of two or more anterior eye cameras are matched. Thus, the three-dimensional position of the subject's eye can be calculated with high accuracy. On the other hand, when the inspection unit determines whether or not the inspection range can be inspected, the imaging interval (frame rate) of the imaging unit is shortened by changing the imaging timing of the anterior eye camera. be able to. When the imaging interval of the imaging unit is shortened, the interval at which the inspection unit determines whether the inspection range can be inspected is shortened, and the accuracy of the determination is improved.

前記課題は、本発明によれば、被検眼を光学的に検査する眼科装置の制御方法であって、前記眼科装置は、前記被検眼の眼底の検査範囲を光学的に検査して検出信号を出力する検査部を有し、前記被検眼の前眼部を撮像して前眼部像を取得する撮像工程と、前記撮像工程が撮像した前記前眼部像に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定する判定工程と、前記検査部が前記検査範囲を検査可能な状態でないと前記判定工程が判定した場合に、前記検査範囲の検査を再度実行するよう前記検査部を制御する制御工程と、前記検査部が検出する前記検出信号に基づいて前記眼底の断面像を形成する画像形成工程と、を備えることを特徴とする眼科装置の制御方法により解決される。
本構成の眼科装置の制御方法によれば、被検者が瞬き等を行って被検眼の眼底の検査範囲を検査不能な状態となった場合であっても、所望の断面像を得ることができる。
According to the present invention, the problem is a control method of an ophthalmic apparatus that optically inspects an eye to be inspected, wherein the ophthalmic apparatus optically inspects an inspection range of a fundus of the eye to be inspected and outputs a detection signal. An inspection unit having an output, an imaging step of imaging the anterior segment of the eye to be inspected to obtain an anterior segment image, and the inspection unit based on the anterior segment image captured by the imaging step, A determining step of determining whether or not the inspection range is in a state in which the inspection range can be inspected, and if the determining unit determines that the inspection unit is not in a state in which the inspection range can be inspected, the inspection of the inspection range is performed again. A control method for controlling the inspection unit and an image forming step for forming a cross-sectional image of the fundus oculi based on the detection signal detected by the inspection unit as described above. Is done.
According to the control method of the ophthalmologic apparatus of the present configuration, a desired cross-sectional image can be obtained even when the subject blinks or the like and the examination range of the fundus of the subject's eye cannot be examined. it can.

本発明によれば、被検者が瞬き等を行って被検眼の眼底の検査範囲を検査不能な状態となった場合であっても、所望の断面像を得ることが可能な眼科装置およびその制御方法を提供することができる。   According to the present invention, an ophthalmologic apparatus capable of obtaining a desired cross-sectional image even when the subject blinks or the like and the inspection range of the fundus of the eye to be inspected cannot be inspected, and A control method can be provided.

第1実施形態に係る眼科装置を示す概略図である。It is a schematic diagram showing the ophthalmologic apparatus according to the first embodiment. 図1に示すOCTユニットの概略図である。It is the schematic of the OCT unit shown in FIG. 第1実施形態に係る眼科装置を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating the ophthalmologic apparatus according to the first embodiment. 図1の眼科装置を示す図であり、Aは正面図であり、Bは右側面図である。It is a figure which shows the ophthalmologic apparatus of FIG. 1, A is a front view and B is a right view. 被検眼と前眼部カメラとの間の位置関係を示す図であり、Aは上面図であり、Bは側面図である。It is a figure which shows the positional relationship between a to-be-examined eye and an anterior segment camera, A is a top view and B is a side view. 第1実施形態に係る眼科装置が実行する処理を示すフローチャートである。5 is a flowchart illustrating a process executed by the ophthalmologic apparatus according to the first embodiment. 眼科装置により表示される画面の例を表す概略図である。It is the schematic showing the example of the screen displayed by an ophthalmologic apparatus. 信号光が被検眼に入射する方向から眼底を見たときの、信号光の走査態様の一例を表す図である。FIG. 4 is a diagram illustrating an example of a scanning mode of the signal light when the fundus is viewed from the direction in which the signal light enters the eye to be examined. 眼底上の各走査線における走査点の配列態様の一例を表す図である。FIG. 4 is a diagram illustrating an example of an arrangement of scanning points on each scanning line on the fundus. 画像形成部により形成される断層画像の態様を表す図である。FIG. 3 is a diagram illustrating a mode of a tomographic image formed by an image forming unit. 前眼部カメラにより取得された前眼部像の一例を示す図である。It is a figure showing an example of the anterior segment image acquired by the anterior segment camera. 前眼部カメラにより取得された前眼部像の一例を示す図である。It is a figure showing an example of the anterior segment image acquired by the anterior segment camera. オートアライメントを実行する際の前眼部カメラの垂直同期信号を示すタイミングチャートである。5 is a timing chart showing a vertical synchronization signal of the anterior ocular segment camera when performing auto alignment. OCT計測を実行する際の前眼部カメラの垂直同期信号を示すタイミングチャートである。6 is a timing chart showing a vertical synchronization signal of the anterior ocular segment camera when performing OCT measurement.

〔第1実施形態〕
この発明に係る眼科装置の第1実施形態について、図面を参照しながら詳細に説明する。第1実施形態に係る眼科装置は、被検眼の光学的な検査に用いられるものであり、光コヒーレンストモグラフィ(Optical Coherence Tomography、OCT)を用いて断面像を得る光干渉断層計である。
[First Embodiment]
A first embodiment of an ophthalmologic apparatus according to the present invention will be described in detail with reference to the drawings. The ophthalmologic apparatus according to the first embodiment is used for optical examination of an eye to be inspected, and is an optical coherence tomography that obtains a cross-sectional image using optical coherence tomography (OCT).

この明細書において、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。なお、この明細書に記載された文献の記載内容を、以下の実施形態の内容として適宜援用することが可能である。   In this specification, an image acquired by OCT may be collectively referred to as an OCT image. Further, a measurement operation for forming an OCT image may be referred to as OCT measurement. The contents of the documents described in this specification can be appropriately used as the contents of the following embodiments.

また、以下の実施形態では、低コヒーレンス光源と分光器が搭載された、いわゆるスペクトラルドメイン(Spectral Domain)タイプのOCTを用いた光干渉断層計について説明するが、スペクトラルドメイン以外のタイプ、たとえばスウェプトソースタイプ、インファスタイプのOCTの手法を用いた光干渉断層計に対してこの発明を適用することも可能である。   In the following embodiment, an optical coherence tomography using a so-called spectral domain (OCT) type OCT equipped with a low coherence light source and a spectroscope will be described. However, a type other than the spectral domain, such as a swept source, is used. The present invention can also be applied to an optical coherence tomography using an OCT method of a type or an in-face type.

なお、スウェプトソース(Swept Source)OCTとは、被測定物体に照射される光の波長を走査(波長掃引)し、各波長の光の反射光と参照光とを重ね合わせて得られる干渉光を順次に検出することでスペクトル強度分布を取得し、それに対してフーリエ変換を施すことにより被測定物体の形態を画像化する手法である。また、インファス(en−face)OCTとは、所定のビーム径を有する光を被測定物体に照射し、その反射光と参照光とを重ね合わせて得られる干渉光の成分を解析することにより、光の進行方向に直交する断面における被測定物体の画像を形成する手法であり、フルフィールド(full−field)タイプとも呼ばれる。   The swept source OCT scans (wavelength sweeps) the wavelength of light applied to an object to be measured, and generates interference light obtained by superimposing reflected light of each wavelength and reference light. This is a technique in which a spectral intensity distribution is obtained by sequentially detecting, and a Fourier transform is performed on the spectral intensity distribution to image the form of the measured object. Further, in-face (en-face) OCT is performed by irradiating a measurement object with light having a predetermined beam diameter and analyzing a component of interference light obtained by superimposing the reflected light and the reference light, This is a method of forming an image of an object to be measured in a cross section orthogonal to the light traveling direction, and is also called a full-field type.

また、以下の実施形態ではOCT装置と眼底カメラとを組み合わせた装置について説明するが、この発明の適用対象はこのような複合機には限定されない。たとえば、他の組み合わせからなる複合機や、単体機としての眼科装置(たとえば眼底カメラ単体)に対して、この発明を適用することも可能である。   In the following embodiments, an apparatus combining an OCT apparatus and a fundus camera will be described, but the application of the present invention is not limited to such a multifunction peripheral. For example, the present invention can be applied to a multifunction peripheral having another combination or an ophthalmologic apparatus (for example, a single fundus camera) as a single apparatus.

[構成]
図1に示すように、眼科装置1は、眼底カメラユニット2、OCTユニット100および演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。
[Constitution]
As shown in FIG. 1, the ophthalmologic apparatus 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic and control unit 200. The retinal camera unit 2 has almost the same optical system as a conventional retinal camera. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus. The arithmetic and control unit 200 includes a computer that executes various arithmetic and control processes.

〔眼底カメラユニット〕
図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。なお、被検眼Eの前眼部Eaに光学系のピントが合っている場合、眼底カメラユニット2は前眼部Eaの観察画像を取得することができる。
[Fundus camera unit]
The fundus camera unit 2 shown in FIG. 1 is provided with an optical system for acquiring a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be inspected. The fundus image includes an observation image, a captured image, and the like. The observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near-infrared light. When the optical system is focused on the anterior segment Ea of the eye E, the fundus camera unit 2 can acquire an observation image of the anterior segment Ea.

撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、または近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。   The captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near-infrared light or visible light as illumination light. The fundus camera unit 2 may be configured to be able to acquire images other than these, for example, a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.

眼底カメラユニット2には、被検者の顔を支持するための顎受けと額当てが設けられている。顎受けおよび額当ては、図4Aおよび図4Bに示す支持部440に相当する。なお、図4Aおよび図4Bにおいて、符号410は、光学系駆動部2A等の駆動系や、演算制御回路が格納されたベースを示す。また、符号420は、ベース410上に設けられた、光学系が格納された筐体を示す。また、符号430は、筐体420の前面に突出して設けられた、対物レンズ22が収容されたレンズ収容部を示す。   The retinal camera unit 2 is provided with a chin rest and a forehead support for supporting the face of the subject. The chin rest and forehead pad correspond to the support 440 shown in FIGS. 4A and 4B. 4A and 4B, reference numeral 410 denotes a drive system such as the optical system drive unit 2A and a base on which the arithmetic control circuit is stored. Reference numeral 420 denotes a housing provided on the base 410 and storing the optical system. Reference numeral 430 denotes a lens housing part that is provided on the front surface of the housing 420 and that houses the objective lens 22.

眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38)に導く。また、撮影光学系30は、OCTユニット100からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット100に導く。   The fundus camera unit 2 includes an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the fundus oculi Ef with illumination light. The imaging optical system 30 guides the fundus reflection light of the illumination light to imaging devices (CCD image sensors (sometimes simply referred to as CCDs) 35 and 38). Further, the imaging optical system 30 guides the signal light from the OCT unit 100 to the fundus oculi Ef, and guides the signal light passing through the fundus oculi Ef to the OCT unit 100.

照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。さらに、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19およびリレーレンズ20を経由する。   The observation light source 11 of the illumination optical system 10 is constituted by, for example, a halogen lamp. Light (observation illumination light) output from the observation light source 11 is reflected by a reflection mirror 12 having a curved reflection surface, passes through a condenser lens 13, passes through a visible cut filter 14, and is converted into near-infrared light. Become. Further, the observation illumination light once converges in the vicinity of the imaging light source 15, is reflected by the mirror 16, and passes through the relay lenses 17 and 18, the stop 19 and the relay lens 20.

そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。   Then, the observation illumination light is reflected at the periphery of the apertured mirror 21 (the area around the aperture), passes through the dichroic mirror 46, is refracted by the objective lens 22, and illuminates the fundus Ef. Note that an LED (Light Emitting Diode) can be used as the observation light source.

観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。さらに、この眼底反射光は、ハーフミラー39Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。   The fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through a hole formed in the central area of the aperture mirror 21, passes through the dichroic mirror 55, and passes through the focusing lens The light is reflected by the mirror 32 via the mirror 31. Further, the fundus reflection light passes through the half mirror 39A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the CCD image sensor 35 by the condenser lens.

CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。   The CCD image sensor 35 detects fundus reflected light at a predetermined frame rate, for example. The display device 3 displays an image (observation image) based on the fundus reflection light detected by the CCD image sensor 35. When the focus of the photographing optical system is adjusted to the anterior segment, an observation image of the anterior segment of the eye E is displayed.

撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。   The photographing light source 15 is composed of, for example, a xenon lamp. Light (photographing illumination light) output from the photographing light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light. The fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 to the CCD image sensor 38. An image is formed on the light receiving surface.

表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。   The display device 3 displays an image (captured image) based on the fundus reflection light detected by the CCD image sensor 38. Note that the display device 3 that displays the observation image and the display device 3 that displays the captured image may be the same or different. In the case where the subject's eye E is illuminated with infrared light and the same imaging is performed, an infrared imaging image is displayed. Further, it is also possible to use an LED as a photographing light source.

LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。LCD39から出力された光は、その一部がハーフミラー39Aにて反射され、ミラー32に反射され、合焦レンズ31およびダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   An LCD (Liquid Crystal Display) 39 displays a fixation target and an index for measuring visual acuity. The fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photography, OCT measurement, or the like. A part of the light output from the LCD 39 is reflected by the half mirror 39A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the hole of the apertured mirror 21, and becomes dichroic. The light passes through the mirror 46, is refracted by the objective lens 22, and is projected on the fundus oculi Ef.

LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。   By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the eye E can be changed. As the fixation position of the subject's eye E, for example, as in a conventional fundus camera, a position for acquiring an image centered on the macula of the fundus oculi Ef and a position for acquiring an image centered on the optic disc. And a position for acquiring an image centered on the fundus center between the macula and the optic disc. It is also possible to arbitrarily change the display position of the fixation target.

さらに、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系(検査用光学系)の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。   Further, the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in the conventional fundus camera. The alignment optical system 50 generates an index (alignment index) for performing alignment (alignment) of the apparatus optical system (inspection optical system) with respect to the eye E to be inspected. The focus optical system 60 generates an index (split index) for focusing on the fundus oculi Ef.

アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53およびリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。   The light (alignment light) output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the diaphragms 52 and 53 and the relay lens 54, passes through the hole of the perforated mirror 21, and passes through the dichroic mirror 46. And is projected on the cornea of the eye E by the objective lens 22.

アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46および上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー39Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。   The corneal reflected light of the alignment light passes through the objective lens 22, the dichroic mirror 46, and the above-mentioned hole, and a part of the light passes through the dichroic mirror 55, passes through the focusing lens 31, is reflected by the mirror 32, and is reflected by the half mirror. The light passes through 39A, is reflected by the dichroic mirror 33, and is projected on the light receiving surface of the CCD image sensor 35 by the condenser lens.

CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。   The image received by the CCD image sensor 35 (alignment index) is displayed on the display device 3 together with the observation image. The user performs the alignment by performing the same operation as the conventional fundus camera. The alignment may be performed by the arithmetic and control unit 200 analyzing the position of the alignment index and moving the optical system (automatic alignment function).

なお、この実施形態では、後述の前眼部カメラ300を用いてオートアライメントを実行することができるので、アライメント指標を用いたオートアライメントが可能なことは必須な事項ではない。ただし、前眼部カメラ300を用いたオートアライメントが成功しなかった場合などにアライメント指標を用いたオートアライメントを行えるように構成したり、前眼部カメラ300を用いたオートアライメントとアライメント指標を用いたオートアライメントとを選択的に使用できるように構成したりすることも可能である。   In this embodiment, auto-alignment can be performed using the anterior ocular segment camera 300 described later, so that auto-alignment using an alignment index is not essential. However, the auto-alignment using the alignment index can be performed when the auto-alignment using the anterior eye camera 300 is not successful, or the auto-alignment using the anterior eye camera 300 and the alignment index can be used. It is also possible to configure so that the used auto alignment can be selectively used.

フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。さらに、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。   When performing focus adjustment, the reflecting surface of the reflecting rod 67 is inclined on the optical path of the illumination optical system 10. Light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is split into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, is reflected by the mirror 65, The light is once formed on the reflecting surface of the reflecting rod 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the aperture mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected on the fundus Ef.

フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31およびフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。   The fundus reflected light of the focus light is detected by the CCD image sensor 35 through the same path as the corneal reflected light of the alignment light. The received light image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The arithmetic and control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focusing optical system 60 to perform focusing (autofocus function) as in the related art. In addition, focusing may be performed manually while visually checking the split index.

ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させている。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。   The dichroic mirror 46 branches an optical path for OCT measurement from an optical path for fundus imaging. The dichroic mirror 46 reflects light in a wavelength band used for OCT measurement and transmits light for fundus imaging. In the optical path for OCT measurement, a collimator lens unit 40, an optical path length changing unit 41, a galvano scanner 42, a focusing lens 43, a mirror 44, and a relay lens 45 are provided in this order from the OCT unit 100 side. Have been.

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT計測用光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。   The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1 and changes the optical path length of the OCT measurement optical path. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E, adjusting the interference state, and the like. The optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.

ガルバノスキャナ42は、OCT計測用の光路を通過する光(信号光LS)の進行方向を変更する。それにより、眼底Efを信号光LSで走査することができる。ガルバノスキャナ42は、たとえば、信号光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、信号光LSをxy平面上の任意の方向に走査することができる。   The galvano scanner 42 changes the traveling direction of light (signal light LS) passing through the optical path for OCT measurement. Thereby, the fundus oculi Ef can be scanned with the signal light LS. The galvano scanner 42 is configured to include, for example, a galvano mirror that scans the signal light LS in the x direction, a galvano mirror that scans in the y direction, and a mechanism that independently drives these. Thereby, the signal light LS can be scanned in any direction on the xy plane.

前眼部カメラ300は、前眼部Eaを異なる方向から実質的に同時に撮影する。この実施形態では、眼底カメラユニット2の被検者側の面に2台のカメラが設けられている(図4Aに示す前眼部カメラ300A、300Bを参照)。また、前眼部カメラ300Aおよび300Bはそれぞれ、図1および図4Aに示すように、照明光学系10の光路および撮影光学系30の光路から外れた位置に設けられている。つまり、前眼部カメラ300Aおよび300Bは、照明光学系10および撮影光学系30と非同軸に設けられている。以下、2台の前眼部カメラ300Aおよび300Bをまとめて符号300で表すことがある。   The anterior eye camera 300 captures the anterior eye Ea substantially simultaneously from different directions. In this embodiment, two cameras are provided on the surface of the fundus camera unit 2 on the subject side (see anterior eye cameras 300A and 300B shown in FIG. 4A). The anterior eye cameras 300A and 300B are provided at positions deviated from the optical path of the illumination optical system 10 and the optical path of the photographing optical system 30, respectively, as shown in FIGS. 1 and 4A. That is, the anterior eye cameras 300A and 300B are provided non-coaxially with the illumination optical system 10 and the imaging optical system 30. Hereinafter, the two anterior eye cameras 300A and 300B may be collectively represented by reference numeral 300.

この実施形態では、2台の前眼部カメラ300Aおよび300Bが設けられているが、実施形態に係る前眼部カメラの個数は2以上の任意の個数であってよい(ただし、アライメント指標を用いる場合には前眼部カメラを設ける必要はない)。しかし、後述の演算処理を考慮すると、異なる2方向から実質的に同時に前眼部を撮影可能な構成であれば十分である。   In this embodiment, two anterior eye cameras 300A and 300B are provided, but the number of anterior eye cameras according to the embodiment may be any number equal to or more than two (however, an alignment index is used. In this case, there is no need to provide an anterior segment camera). However, in consideration of the arithmetic processing described later, it is sufficient that the anterior ocular segment can be photographed substantially simultaneously from two different directions.

また、この実施形態では、照明光学系10および撮影光学系30とは別個に前眼部カメラ300を設けているが、少なくとも撮影光学系30を用いて同様の前眼部撮影を行うことができる。つまり、2以上の前眼部カメラのうちの1つを、撮影光学系30を含む構成によって担うようにしてもよい。いずれにしても、この実施形態は、異なる2(以上の)方向から実質的に同時に前眼部を撮影可能に構成されていればよい。   Further, in this embodiment, the anterior ocular segment camera 300 is provided separately from the illumination optical system 10 and the imaging optical system 30, but at least the same anterior ocular segment imaging can be performed using the imaging optical system 30. . That is, one of the two or more anterior eye cameras may be played by a configuration including the imaging optical system 30. In any case, this embodiment only needs to be configured so that the anterior ocular segment can be photographed substantially simultaneously from two (or more) different directions.

なお、「実質的に同時」とは、2以上の前眼部カメラによる撮影において、眼球運動を無視できる程度の撮影タイミングのズレを許容することを示す。それにより、被検眼Eが実質的に同じ位置(向き)にあるときの画像を2以上の前眼部カメラによって取得することができる。   Note that “substantially simultaneous” indicates that in imaging by two or more anterior eye cameras, a shift in imaging timing that allows negligible eye movement is allowed. Thereby, an image when the eye E is at substantially the same position (orientation) can be acquired by two or more anterior eye cameras.

また、2以上の前眼部カメラによる撮影は動画撮影でも静止画撮影でもよいが、この実施形態では動画撮影を行う場合について特に詳しく説明する。動画撮影の場合、撮影開始タイミングを合わせるよう制御したり、フレームレートや各フレームの撮影タイミングを制御したりすることにより、上記した実質的に同時の前眼部撮影を実現することができる。また、2以上の前眼部カメラから制御部210(後述)に対して実質的に同時に入力された信号同士を対応付けるように構成してもよい。一方、静止画撮影の場合、撮影タイミングを合わせるよう制御することにより、これを実現することができる。   In addition, although the photographing by two or more anterior eye cameras may be moving image photographing or still image photographing, in this embodiment, the case of performing moving image photographing will be particularly described in detail. In the case of moving image shooting, the above-described substantially simultaneous anterior ocular segment shooting can be realized by controlling the shooting start timing to match or by controlling the frame rate and the shooting timing of each frame. Further, a configuration may be adopted in which signals that are input substantially simultaneously from two or more anterior eye cameras to a control unit 210 (described later) are associated with each other. On the other hand, in the case of still image shooting, this can be realized by controlling to match the shooting timing.

〔OCTユニット〕
図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、光源からの光(低コヒーレンス光)を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
[OCT unit]
An example of the configuration of the OCT unit 100 will be described with reference to FIG. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus oculi Ef. This optical system has a configuration similar to that of a conventional spectral domain type OCT apparatus. That is, the optical system divides light (low coherence light) from a light source into reference light and signal light, and generates interference light by causing the signal light passing through the fundus oculi Ef and the reference light passing through the reference light path to interfere with each other. Then, it is configured to detect the spectral component of the interference light. This detection result (detection signal) is sent to the arithmetic and control unit 200.

なお、スウェプトソースタイプのOCT装置の場合には、低コヒーレンス光源を出力する光源の代わりに波長掃引光源が設けられるとともに、干渉光をスペクトル分解する光学部材が設けられない。一般に、OCTユニット100の構成については、OCTのタイプに応じた公知の技術を任意に適用することができる。   In the case of a swept-source OCT apparatus, a wavelength sweep light source is provided instead of a light source that outputs a low coherence light source, and an optical member that spectrally resolves interference light is not provided. In general, for the configuration of the OCT unit 100, a known technique according to the type of OCT can be arbitrarily applied.

光源ユニット101は広帯域の低コヒーレンス光L0を出力する。低コヒーレンス光L0は、たとえば、近赤外領域の波長帯(約800nm〜900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1040〜1060nm程度の中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。   The light source unit 101 outputs broadband low coherence light L0. The low coherence light L0 includes, for example, a wavelength band in the near infrared region (about 800 nm to 900 nm) and has a temporal coherence length of about several tens of micrometers. Note that a near-infrared light having a wavelength band that cannot be visually recognized by human eyes, for example, a center wavelength of about 1040 to 1060 nm may be used as the low coherence light L0.

光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて信号光LSと参照光LRに分割される。   The light source unit 101 includes an optical output device such as a super luminescent diode (SLD), an LED, and an SOA (Semiconductor Optical Amplifier). The low coherence light L0 output from the light source unit 101 is guided to a fiber coupler 103 by an optical fiber 102, and is split into a signal light LS and a reference light LR.

参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、公知の技術を用いて、演算制御ユニット200の制御の下、光ファイバ104に導かれる参照光LRの光量を自動で調整する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。   The reference light LR is guided by the optical fiber 104 and reaches an optical attenuator (attenuator) 105. The optical attenuator 105 automatically adjusts the amount of the reference light LR guided to the optical fiber 104 under the control of the arithmetic and control unit 200 using a known technique. The reference light LR whose light amount has been adjusted by the optical attenuator 105 is guided by the optical fiber 104 and reaches a polarization controller (polarization controller) 106.

偏波調整器106は、たとえば、ループ状にされた光ファイバ104に対して外部から応力を与えることで、光ファイバ104内を導かれる参照光LRの偏光状態を調整する装置である。なお、偏波調整器106の構成はこれに限定されるものではなく、任意の公知技術を用いることが可能である。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。   The polarization adjuster 106 is, for example, a device that adjusts the polarization state of the reference light LR guided in the optical fiber 104 by applying an external stress to the looped optical fiber 104. The configuration of the polarization adjuster 106 is not limited to this, and any known technique can be used. The reference light LR whose polarization state has been adjusted by the polarization adjuster 106 reaches the fiber coupler 109.

ファイバカプラ103により生成された信号光LSは、光ファイバ107により導かれ、コリメータレンズユニット40により平行光束とされる。さらに、信号光LSは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、およびリレーレンズ45を経由してダイクロイックミラー46に到達する。   The signal light LS generated by the fiber coupler 103 is guided by the optical fiber 107 and converted into a parallel light beam by the collimator lens unit 40. Further, the signal light LS reaches the dichroic mirror 46 via the optical path length changing unit 41, the galvano scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45.

そして、信号光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて眼底Efに照射される。信号光LSは、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる信号光LSの後方散乱光は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。   Then, the signal light LS is reflected by the dichroic mirror 46, refracted by the objective lens 22, and irradiated to the fundus oculi Ef. The signal light LS is scattered (including reflection) at various depth positions of the fundus oculi Ef. The backscattered light of the signal light LS due to the fundus oculi Ef travels in the same path as the outward path in the opposite direction, is guided to the fiber coupler 103, and reaches the fiber coupler 109 via the optical fiber 108.

ファイバカプラ109は、信号光LSの後方散乱光と、光ファイバ104を経由した参照光LRとを干渉させる。これにより生成された干渉光LCは、光ファイバ110により導かれて出射端111から出射される。さらに、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113により分光(スペクトル分解)され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子113は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。   The fiber coupler 109 causes the backscattered light of the signal light LS to interfere with the reference light LR that has passed through the optical fiber 104. The generated interference light LC is guided by the optical fiber 110 and emitted from the emission end 111. Further, the interference light LC is converted into a parallel light flux by the collimator lens 112, is separated (spectral resolution) by the diffraction grating 113, is collected by the condenser lens 114, and is projected on the light receiving surface of the CCD image sensor 115. Although the diffraction grating 113 shown in FIG. 2 is a transmission type, another type of spectral element such as a reflection type diffraction grating can be used.

CCDイメージセンサ115は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。   The CCD image sensor 115 is, for example, a line sensor, and detects each spectral component of the separated interference light LC and converts it into electric charge. The CCD image sensor 115 accumulates the charges to generate a detection signal, and sends the detection signal to the arithmetic and control unit 200.

この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。   In this embodiment, a Michelson-type interferometer is used, but any type of interferometer, such as a Mach-Zehnder type, can be used as appropriate. Further, instead of the CCD image sensor, another type of image sensor, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor can be used.

〔演算制御ユニット〕
演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。演算制御ユニット200は、眼底カメラユニット2、表示装置3およびOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底EfのOCT画像を表示装置3に表示させる。
[Operation control unit]
The configuration of the arithmetic and control unit 200 will be described. The arithmetic and control unit 200 analyzes the detection signal input from the CCD image sensor 115 and forms an OCT image of the fundus oculi Ef. The arithmetic processing for that is the same as that of a conventional spectral domain type OCT apparatus. The arithmetic and control unit 200 controls each unit of the retinal camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic and control unit 200 causes the display device 3 to display an OCT image of the fundus oculi Ef.

また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15およびLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御、前眼部カメラ300の動作制御などを行う。   As the control of the fundus camera unit 2, the arithmetic and control unit 200 controls the operation of the observation light source 11, the imaging light source 15 and the LEDs 51 and 61, the operation of the LCD 39, the movement of the focusing lenses 31, 43, and the control of the reflection rod 67. It performs movement control, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the galvano scanner 42, operation control of the anterior eye camera 300, and the like.

また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光減衰器105の動作制御、偏波調整器106の動作制御、CCDイメージセンサ115の動作制御などを行う。   In addition, as control of the OCT unit 100, the arithmetic and control unit 200 performs operation control of the light source unit 101, operation control of the optical attenuator 105, operation control of the polarization adjuster 106, operation control of the CCD image sensor 115, and the like.

演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。   The arithmetic and control unit 200 includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a communication interface, and the like, similarly to a conventional computer. A storage device such as a hard disk drive stores a computer program for controlling the ophthalmologic apparatus 1. The arithmetic and control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image. Further, the arithmetic and control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.

眼底カメラユニット2、表示装置3、OCTユニット100および演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。   The fundus camera unit 2, the display device 3, the OCT unit 100, and the arithmetic and control unit 200 may be configured integrally (that is, in a single housing) or may be configured separately in two or more housings. May be.

〔制御系〕
眼科装置1の制御系の構成について図3を参照しつつ説明する。
(制御部)
眼科装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と、記憶部212と、光学系位置取得部213と、情報判定部214とが設けられている。
(Control system)
The configuration of the control system of the ophthalmologic apparatus 1 will be described with reference to FIG.
(Control unit)
The control system of the ophthalmologic apparatus 1 is mainly configured with the control unit 210. The control unit 210 includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, communication interface, and the like. The control unit 210 includes a main control unit 211, a storage unit 212, an optical system position acquisition unit 213, and an information determination unit 214.

(主制御部)
主制御部211は前述した各種の動作制御を行う。なお、合焦レンズ31の移動制御は、図示しない合焦駆動部を制御して合焦レンズ31を光軸方向に移動させるものである。それにより、撮影光学系30の合焦位置が変更される。また、合焦レンズ43の移動制御は、図示しない合焦駆動部を制御して合焦レンズ43を光軸方向に移動させるものである。それにより、信号光LSの合焦位置が変更される。
(Main control unit)
The main control unit 211 performs the various operation controls described above. The movement control of the focusing lens 31 is to control a focusing driving unit (not shown) to move the focusing lens 31 in the optical axis direction. Thereby, the focus position of the photographing optical system 30 is changed. The movement control of the focusing lens 43 is to control a focusing driving unit (not shown) to move the focusing lens 43 in the optical axis direction. Thereby, the focus position of the signal light LS is changed.

主制御部211は、光学系駆動部2Aを制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることができる。この制御は、オートアライメントやトラッキングにおいて実行される。ここで、トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングは、たとえばアライメントよりも後の段階で実行される(場合によってはピント合わせも事前に実行される)。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメント(およびピント)が合った好適な位置関係を維持する機能である。   The main control unit 211 can control the optical system driving unit 2A to move the optical system provided in the fundus camera unit 2 three-dimensionally. This control is executed in auto alignment and tracking. Here, the tracking is to move the apparatus optical system in accordance with the eye movement of the eye E. The tracking is performed, for example, at a stage after the alignment (in some cases, the focusing is also performed in advance). Tracking is a function of maintaining a suitable positional relationship in which alignment (and focusing) is achieved by causing the position of the apparatus optical system to follow eye movement.

なお、この実施形態の光学系駆動部2Aは眼底カメラユニット2に搭載された光学系を移動させるものであるが、眼底カメラユニット2に搭載された光学系とOCTユニット100に搭載された光学系とを光学系駆動部2Aによって移動させるように構成されていてもよい。光学系駆動部2Aは「移動機構」の一例である。   Note that the optical system driving unit 2A of this embodiment moves the optical system mounted on the fundus camera unit 2, and the optical system mounted on the fundus camera unit 2 and the optical system mounted on the OCT unit 100. May be moved by the optical system driving unit 2A. The optical system driving unit 2A is an example of a “moving mechanism”.

また、この実施形態の前眼部カメラ300は眼底カメラユニット2の筐体に設けられているので、光学系駆動部2A(撮影移動部)を制御することにより前眼部カメラ300を移動させることができる。また、2以上の前眼部カメラ300をそれぞれ独立に移動させることが可能な撮影移動部を設けることができる。   Further, since the anterior eye camera 300 of this embodiment is provided in the housing of the fundus camera unit 2, the anterior eye camera 300 is moved by controlling the optical system driving unit 2A (photographing moving unit). Can be. Further, a photographing moving unit capable of independently moving the two or more anterior eye cameras 300 can be provided.

具体的には、撮影移動部は、各前眼部カメラ300に対して設けられた駆動機構(アクチュエータ、動力伝達機構等)を含む構成であってもよい。また、撮影移動部は、単一のアクチュエータにより発生された動力を前眼部カメラ300ごとに設けられた動力伝達機構によって伝達することにより、2以上の前眼部カメラ300を移動させるように構成されていてもよい。   Specifically, the photographing moving unit may be configured to include a drive mechanism (an actuator, a power transmission mechanism, etc.) provided for each anterior eye camera 300. The imaging moving unit is configured to move two or more anterior eye cameras 300 by transmitting the power generated by a single actuator by a power transmission mechanism provided for each anterior eye camera 300. It may be.

また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。   The main control unit 211 performs a process of writing data to the storage unit 212 and a process of reading data from the storage unit 212.

(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科装置1を動作させるための各種プログラムやデータが記憶されている。
(Storage unit)
The storage unit 212 stores various data. The data stored in the storage unit 212 includes, for example, image data of an OCT image, image data of a fundus image, eye information to be examined, and the like. The subject's eye information includes information about the subject, such as a patient ID and a name, and information about the subject's eye, such as left / right eye identification information. Further, the storage unit 212 stores various programs and data for operating the ophthalmologic apparatus 1.

(光学系位置取得部)
光学系位置取得部213は、眼科装置1に搭載された検査用光学系の現在位置を取得する。検査用光学系とは、被検眼Eを光学的に検査するために用いられる光学系である。この実施形態の眼科装置1(眼底カメラとOCT装置の複合機)における検査用光学系は、被検眼の画像を得るための光学系である。
(Optical system position acquisition unit)
The optical system position acquisition unit 213 acquires the current position of the inspection optical system mounted on the ophthalmologic apparatus 1. The inspection optical system is an optical system used to optically inspect the eye E to be inspected. The inspection optical system in the ophthalmologic apparatus 1 (combined machine of the fundus camera and the OCT apparatus) of this embodiment is an optical system for obtaining an image of the eye to be inspected.

光学系位置取得部213は、たとえば、主制御部211による光学系駆動部2Aの移動制御の内容を表す情報を受けて、光学系駆動部2Aにより移動される検査用光学系の現在位置を取得する。この処理の具体例を説明する。主制御部211は、所定のタイミング(装置起動時、患者情報入力時など)で光学系駆動部2Aを制御して、検査用光学系を所定の初期位置に移動させる。それ以降、主制御部211は、光学系駆動部2Aが制御される度に、その制御内容を記録する。それにより、制御内容の履歴が得られる。光学系位置取得部213は、この履歴を参照して現在までの制御内容を取得し、この制御内容に基づいて検査用光学系の現在位置を求める。   The optical system position acquiring unit 213 receives, for example, information indicating the content of the movement control of the optical system driving unit 2A by the main control unit 211, and acquires the current position of the inspection optical system moved by the optical system driving unit 2A. I do. A specific example of this processing will be described. The main control unit 211 controls the optical system driving unit 2A at a predetermined timing (when the apparatus is activated, when patient information is input, and the like), and moves the inspection optical system to a predetermined initial position. Thereafter, each time the optical system driving unit 2A is controlled, the main control unit 211 records the contents of the control. Thereby, a history of the control contents is obtained. The optical system position obtaining unit 213 obtains the control contents up to the present by referring to the history, and obtains the current position of the inspection optical system based on the control contents.

また、主制御部211が光学系駆動部2Aを制御する度にその制御内容を光学系位置取得部213に送信し、光学系位置取得部213が当該制御内容を受ける度に検査用光学系の現在位置を逐次求めるようにしてもよい。他の構成例として、検査用光学系の位置を検知する位置センサを光学系位置取得部213に設けるようにしてもよい。   Further, each time the main control unit 211 controls the optical system driving unit 2A, the control content is transmitted to the optical system position acquisition unit 213, and each time the optical system position acquisition unit 213 receives the control content, the inspection optical system is controlled. The current position may be determined sequentially. As another configuration example, a position sensor that detects the position of the inspection optical system may be provided in the optical system position acquisition unit 213.

以上のようにして光学系位置取得部213により検査用光学系の現在位置が取得された場合、主制御部211は、取得された現在位置と、後述の解析部231により求められた被検眼Eの3次元位置とに基づいて、光学系駆動部2Aに検査用光学系を移動させることができる。具体的には、主制御部211は、光学系位置取得部213による取得結果によって検査用光学系の現在位置を認識し、解析部231による解析結果によって被検眼Eの3次元位置を認識する。   When the current position of the inspection optical system is acquired by the optical system position acquisition unit 213 as described above, the main control unit 211 determines the acquired current position and the eye E to be examined obtained by the analysis unit 231 described later. The inspection optical system can be moved to the optical system driving unit 2A based on the three-dimensional position. Specifically, the main control unit 211 recognizes the current position of the inspection optical system based on the result obtained by the optical system position obtaining unit 213, and recognizes the three-dimensional position of the eye E based on the analysis result obtained by the analysis unit 231.

そして、主制御部211は、被検眼Eの3次元位置に対する検査用光学系の位置が所定の位置関係になるように、検査用光学系の現在位置を起点としてその位置を変更する。この所定の位置関係は、x方向およびy方向の位置がそれぞれ一致し、かつ、z方向の距離が所定の作動距離になるようなものである。ここで、作動距離とは、ワーキングディスタンスとも呼ばれる既定値であり、検査用光学系を用いた検査時における被検眼Eと検査用光学系との間の距離を意味する。   Then, the main control unit 211 changes the position of the inspection optical system starting from the current position of the inspection optical system so that the position of the inspection optical system with respect to the three-dimensional position of the eye E has a predetermined positional relationship. The predetermined positional relationship is such that the positions in the x direction and the y direction match each other, and the distance in the z direction is a predetermined working distance. Here, the working distance is a predetermined value which is also called a working distance, and means a distance between the eye E to be inspected and the inspection optical system at the time of inspection using the inspection optical system.

(情報判定部)
情報判定部214は、OCTを行うことによって取得された情報が、OCTを実行するにあたり適当であるか否か判定する。OCTにより取得される情報としては、OCTユニット100のCCDイメージセンサ115からの検出信号や、この検出信号に対して所定の処理を施すことにより得られる情報がある。
(Information judgment unit)
The information determination unit 214 determines whether information acquired by performing OCT is appropriate for performing OCT. The information obtained by OCT includes a detection signal from the CCD image sensor 115 of the OCT unit 100 and information obtained by performing predetermined processing on the detection signal.

後者の例として次のような情報がある:検出信号に基づき画像形成部220により形成される断面像(Aスキャン像、2次元断面像);この断面像形成処理の途中段階で得られる情報;画像形成部220により形成された1以上の断面像に基づき画像処理部230により形成される情報(画像等);これら以外の処理を検出信号に施すことにより得られる情報。   Examples of the latter include the following information: a cross-sectional image (A-scan image, two-dimensional cross-sectional image) formed by the image forming unit 220 based on the detection signal; information obtained during the cross-sectional image forming process; Information (such as an image) formed by the image processing unit 230 based on one or more cross-sectional images formed by the image forming unit 220; information obtained by performing other processing on the detection signal.

(画像形成部)
画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、眼底Efの断面像の画像データを形成する。この処理には、従来のスペクトラルドメインタイプのOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。他のタイプのOCTが適用される場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。画像形成部220は、たとえば、前述の回路基板を含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。
(Image forming unit)
The image forming unit 220 forms image data of a cross-sectional image of the fundus oculi Ef based on a detection signal from the CCD image sensor 115. This processing includes processing such as noise removal (noise reduction), filter processing, and FFT (Fast Fourier Transform), similarly to the conventional spectral domain type OCT. When another type of OCT is applied, the image forming unit 220 executes a known process according to the type. The image forming unit 220 includes, for example, the above-described circuit board. In this specification, “image data” and “image” based on the image data may be identified.

(画像処理部)
画像処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。たとえば、画像処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。また、画像処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
(Image processing unit)
The image processing unit 230 performs various image processing and analysis processing on the image formed by the image forming unit 220. For example, the image processing unit 230 performs various correction processes such as brightness correction and dispersion correction of an image. Further, the image processing unit 230 performs various image processing and analysis processing on the image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2.

画像処理部230は、断面像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像データを形成する。なお、3次元画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。   The image processing unit 230 performs known image processing such as interpolation processing for interpolating pixels between cross-sectional images, and forms three-dimensional image data of the fundus oculi Ef. Note that the three-dimensional image data means image data in which the positions of pixels are defined by a three-dimensional coordinate system. As the three-dimensional image data, there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data.

ボリュームデータに基づく画像を表示させる場合、画像処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部241には、この擬似的な3次元画像が表示される。   When displaying an image based on the volume data, the image processing unit 230 performs rendering processing (such as volume rendering or MIP (Maximum Intensity Projection: maximum value projection)) on the volume data to view the volume data from a specific line of sight. The image data of the pseudo three-dimensional image at the time of being formed is formed. The display unit 241 displays the pseudo three-dimensional image.

さらに、画像処理部230には、解析部231と、画像判定部232と、画像合成部233とが設けられている。   Further, the image processing unit 230 includes an analysis unit 231, an image determination unit 232, and an image synthesis unit 233.

(解析部)
解析部231は、2以上の前眼部カメラ300により実質的に同時に得られた2以上の撮影画像を解析することで、被検眼Eの3次元位置を求める。この処理を実行するための構成の一例として、解析部231には、画像補正部2311と、特徴位置特定部2312と、3次元位置算出部2313が設けられている。
(Analysis section)
The analysis unit 231 obtains a three-dimensional position of the eye E by analyzing two or more captured images obtained substantially simultaneously by the two or more anterior eye cameras 300. As an example of a configuration for performing this processing, the analysis unit 231 includes an image correction unit 2311, a feature position identification unit 2312, and a three-dimensional position calculation unit 2313.

(画像補正部)
画像補正部2311は、前眼部カメラ300により得られた各撮影画像の歪みを、記憶部212に記憶されている収差情報に基づいて補正する。この処理は、たとえば、歪曲収差を補正するための補正係数に基づく公知の画像処理技術によって実行される。なお、前眼部カメラ300の光学系が撮影画像に与える歪曲収差が十分に小さい場合などには、収差情報および画像補正部2311を設けなくてもよい。
(Image correction unit)
The image correction unit 2311 corrects the distortion of each captured image obtained by the anterior eye camera 300 based on the aberration information stored in the storage unit 212. This process is performed by, for example, a known image processing technique based on a correction coefficient for correcting distortion. Note that when distortion caused by the optical system of the anterior eye camera 300 to a captured image is sufficiently small, the aberration information and the image correction unit 2311 need not be provided.

(特徴位置特定部)
特徴位置特定部2312は、(画像補正部2311により歪曲収差が補正された)各撮影画像を解析することで、前眼部Eaの所定の特徴部位に相当する当該撮影画像中の位置(特徴位置と呼ぶ)を特定する。所定の特徴部位としては、たとえば被検眼Eの瞳孔中心または角膜頂点が用いられる。以下、瞳孔中心を特定する処理の具体例を説明する。
(Feature position identification unit)
The characteristic position specifying unit 2312 analyzes each captured image (the distortion of which has been corrected by the image correction unit 2311), and determines a position (characteristic position) in the captured image corresponding to a predetermined characteristic portion of the anterior eye Ea. ). As the predetermined characteristic portion, for example, the center of the pupil of the eye E or the vertex of the cornea is used. Hereinafter, a specific example of the process of specifying the pupil center will be described.

まず、特徴位置特定部2312は、撮影画像の画素値(輝度値など)の分布に基づいて、被検眼Eの瞳孔に相当する画像領域(瞳孔領域)を特定する。一般に瞳孔は他の部位よりも低い輝度で描画されるので、低輝度の画像領域を探索することによって瞳孔領域を特定することができる。このとき、瞳孔の形状を考慮して瞳孔領域を特定するようにしてもよい。つまり、略円形かつ低輝度の画像領域を探索することによって瞳孔領域を特定するように構成することができる。   First, the characteristic position specifying unit 2312 specifies an image region (pupil region) corresponding to the pupil of the eye E based on the distribution of the pixel values (such as luminance values) of the captured image. In general, the pupil is drawn with lower luminance than other parts, so that the pupil region can be specified by searching for an image region with low luminance. At this time, the pupil region may be specified in consideration of the pupil shape. That is, the pupil region can be specified by searching for a substantially circular and low-luminance image region.

次に、特徴位置特定部2312は、特定された瞳孔領域の中心位置を特定する。上記のように瞳孔は略円形であるので、瞳孔領域の輪郭を特定し、この輪郭(の近似円または近似楕円)の中心位置を特定し、これを瞳孔中心とすることができる。また、瞳孔領域の重心を求め、この重心位置を瞳孔中心としてもよい。なお、他の特徴部位に対応する特徴位置を特定する場合であっても、上記と同様に撮影画像の画素値の分布に基づいて当該特徴位置を特定することが可能である。   Next, the characteristic position specifying unit 2312 specifies the center position of the specified pupil region. Since the pupil is substantially circular as described above, it is possible to specify the contour of the pupil region, specify the center position of this (an approximate circle or approximate ellipse), and use this as the pupil center. Alternatively, the center of gravity of the pupil region may be determined, and the position of the center of gravity may be used as the pupil center. Note that, even when a feature position corresponding to another feature portion is specified, the feature position can be specified based on the distribution of pixel values of the captured image in the same manner as described above.

(3次元位置算出部)
3次元位置算出部2313は、2以上の前眼部カメラ300の位置と、特徴位置特定部2312により特定された2以上の撮影画像中の特徴位置とに基づいて、被検眼Eの特徴部位の3次元位置を算出する。この処理について図5Aおよび図5Bを参照しつつ説明する。
(3D position calculation unit)
The three-dimensional position calculation unit 2313 determines the characteristic part of the eye E based on the positions of the two or more anterior eye cameras 300 and the characteristic positions in the two or more captured images specified by the characteristic position specifying unit 2312. Calculate the three-dimensional position. This processing will be described with reference to FIGS. 5A and 5B.

図5Aは、被検眼Eと前眼部カメラ300Aおよび300Bとの間の位置関係を示す上面図である。図5Bは、被検眼Eと前眼部カメラ300Aおよび300Bとの間の位置関係を示す側面図である。2つの前眼部カメラ300Aおよび300Bの間の距離(基線長)を「B」で表す。2つの前眼部カメラ300Aおよび300Bの基線と、被検眼Eの特徴部位Pとの間の距離(撮影距離)を「H」で表す。各前眼部カメラ300Aおよび300Bと、その画面平面との間の距離(画面距離)を「f」で表す。   FIG. 5A is a top view illustrating a positional relationship between the eye E to be inspected and the anterior eye cameras 300A and 300B. FIG. 5B is a side view showing a positional relationship between the eye E and the anterior segment cameras 300A and 300B. The distance (base line length) between the two anterior eye cameras 300A and 300B is represented by "B". The distance (photographing distance) between the base line of the two anterior eye cameras 300A and 300B and the characteristic part P of the eye E is represented by "H". The distance (screen distance) between each of the anterior eye cameras 300A and 300B and its screen plane is represented by “f”.

このような配置状態において、前眼部カメラ300Aおよび300Bによる撮影画像の分解能は次式で表される。ここで、Δpは画素分解能を表す。
xy方向の分解能(平面分解能):Δxy=H・Δp/f
z方向の分解能(奥行き分解能):Δz=H・H・Δp/(B×f)
In such an arrangement state, the resolution of images captured by the anterior eye cameras 300A and 300B is expressed by the following equation. Here, Δp represents the pixel resolution.
Resolution in xy directions (plane resolution): Δxy = H · Δp / f
Resolution in z direction (depth resolution): Δz = H · H · Δp / (B × f)

3次元位置算出部2313は、2つの前眼部カメラ300Aおよび300Bの位置(既知である)と、2つの撮影画像において特徴部位Pに相当する特徴位置とに対して、図5Aおよび図5Bに示す配置関係を考慮した公知の三角法を適用することにより、特徴部位Pの3次元位置、つまり被検眼Eの3次元位置を算出する。   The three-dimensional position calculation unit 2313 compares the positions (known) of the two anterior eye cameras 300A and 300B and the characteristic positions corresponding to the characteristic parts P in the two captured images with reference to FIGS. 5A and 5B. The three-dimensional position of the characteristic portion P, that is, the three-dimensional position of the eye E is calculated by applying a known trigonometry in consideration of the arrangement relationship shown.

3次元位置算出部2313により算出された被検眼Eの3次元位置は制御部210に送られる。制御部210は、この3次元位置の算出結果に基づいて、検査用光学系の光軸を被検眼Eの軸に合わせるように、かつ、被検眼Eに対する検査用光学系の距離が所定の作動距離になるように光学系駆動部2Aを制御する。   The three-dimensional position of the eye E calculated by the three-dimensional position calculation unit 2313 is sent to the control unit 210. Based on the calculation result of the three-dimensional position, the control unit 210 adjusts the optical axis of the inspection optical system to the axis of the eye E and sets the distance of the inspection optical system to the eye E to a predetermined value. The optical system driving unit 2A is controlled so as to be at a distance.

また、前眼部カメラ300が前眼部Eaを異なる方向から並行して動画撮影する場合、たとえば次のような処理(1)および(2)を行うことにより、被検眼Eの動きに対する検査用光学系のトラッキングを実行することが可能である。
(1)解析部231が、2以上の前眼部カメラ300による動画撮影において実質的に同時に得られた2以上のフレームを逐次に解析することで、被検眼Eの3次元位置を逐次に求める。
(2)制御部210が、解析部231により逐次に求められる被検眼Eの3次元位置に基づき光学系駆動部2Aを逐次に制御することにより、検査用光学系の位置を被検眼Eの動きに追従させる。
When the anterior eye camera 300 captures a moving image of the anterior eye part Ea in parallel from different directions, for example, by performing the following processes (1) and (2), an inspection for the movement of the eye E is performed. It is possible to perform tracking of the optical system.
(1) The analysis unit 231 sequentially obtains the three-dimensional position of the eye E by sequentially analyzing two or more frames obtained substantially simultaneously in moving image shooting by the two or more anterior eye cameras 300. .
(2) The control unit 210 sequentially controls the optical system driving unit 2A based on the three-dimensional position of the eye E sequentially obtained by the analysis unit 231, thereby moving the position of the inspection optical system to the movement of the eye E. To follow.

解析部231は、3次元位置算出部2313により取得された被検眼Eの3次元位置に基づいて、被検眼Eと検査用光学系との間の変位を求めることができる。この処理は、前眼部カメラ300の位置および検査用光学系の位置が既知であることを利用して実行される。なお、検査用光学系の位置は、あらかじめ決められた所定位置であり、たとえば、対物レンズ22の前面(被検眼E側の面)と、検査用光学系の光軸とが交差する位置である。   The analysis unit 231 can calculate the displacement between the eye E and the inspection optical system based on the three-dimensional position of the eye E acquired by the three-dimensional position calculation unit 2313. This processing is executed by using the fact that the position of the anterior eye camera 300 and the position of the inspection optical system are known. The position of the inspection optical system is a predetermined position determined in advance, for example, a position where the front surface of the objective lens 22 (the surface on the eye E side) and the optical axis of the inspection optical system intersect. .

(画像判定部)
画像判定部232は、2以上の前眼部カメラ300のうちの少なくとも1つにより得られた撮影画像を解析することで、前眼部Eaの画像が当該撮影画像中の所定領域に含まれているか否か判定する。
(Image determination unit)
The image determination unit 232 analyzes the captured image obtained by at least one of the two or more anterior eye cameras 300 so that the image of the anterior eye Ea is included in a predetermined area in the captured image. Is determined.

この所定領域は、前眼部カメラ300による撮影範囲内においてあらかじめ設定され、たとえば当該撮影範囲の中心を含む領域として設定される。ここで、前眼部カメラ300による撮影条件(前眼部カメラ300の位置、撮影倍率等)に応じて当該所定領域の範囲を変化させることができる。また、後述の特徴点の設定に応じて当該所定領域の範囲を決定することができる。また、被検者の顔を支持する支持部440(顎受け、額当て等。図4Aおよび図4Bを参照。)の位置またはその近傍位置に相当するように当該所定領域を設定することができる。   This predetermined area is set in advance within the shooting range of the anterior eye camera 300, and is set, for example, as an area including the center of the shooting range. Here, the range of the predetermined region can be changed according to the shooting conditions (the position of the anterior eye camera 300, the shooting magnification, etc.) of the anterior eye camera 300. Further, the range of the predetermined area can be determined according to the setting of a feature point described later. In addition, the predetermined area can be set to correspond to a position of a support portion 440 (a chin rest, a forehead support, or the like; see FIGS. 4A and 4B) that supports the face of the subject or a position in the vicinity thereof. .

画像判定部232が実行する処理の具体例を説明する。まず、画像判定部232は、前眼部Eaの所定の特徴点に相当する画像領域を撮影画像中から特定する。この特徴点としては、瞳孔中心、瞳孔輪郭、虹彩中心、虹彩輪郭、角膜頂点などがある。特徴点に相当する画像領域の特定処理は、たとえば特徴位置特定部2312が実行する処理と同様である。なお、特徴点と特徴部位とが同一の場合には、特徴位置特定部2312による特定結果を画像判定部232が行う処理に利用することができる。   A specific example of the process executed by the image determination unit 232 will be described. First, the image determination unit 232 specifies an image region corresponding to a predetermined feature point of the anterior segment Ea from the captured image. The feature points include a pupil center, a pupil contour, an iris center, an iris contour, and a corneal vertex. The process of specifying an image region corresponding to a feature point is the same as the process executed by the feature position specifying unit 2312, for example. When the feature point and the feature portion are the same, the result of the identification by the characteristic position identification unit 2312 can be used for the processing performed by the image determination unit 232.

次に、画像判定部232は、特定された特徴点が撮影画像(のフレーム)中の所定領域に含まれているか否か判定する。この処理は、所定領域に相当する座標と特徴点の座標とを比較することによって行われる。   Next, the image determination unit 232 determines whether or not the specified feature point is included in a predetermined region in (the frame of) the captured image. This process is performed by comparing coordinates corresponding to a predetermined area with coordinates of a feature point.

画像判定部232は、この判定結果を制御部210に送る。制御部210は、前眼部Eaの画像が所定領域に含まれていないと判定された場合に、光学系駆動部2A(撮影移動部)を制御して前眼部カメラ300を支持部440(つまり被検者の顔)から離れる方向および/または支持部440の外側方向に移動させる。支持部440から離れる方向とは、図1等に示す座標系における−z方向である。   The image determination unit 232 sends the determination result to the control unit 210. When it is determined that the image of the anterior segment Ea is not included in the predetermined area, the control unit 210 controls the optical system driving unit 2A (photographing moving unit) to move the anterior segment camera 300 to the support unit 440 ( That is, it is moved in a direction away from the subject's face) and / or in a direction outside the support portion 440. The direction away from the support unit 440 is the −z direction in the coordinate system illustrated in FIG. 1 and the like.

また、支持部440の外側方向とは、前眼部カメラ300が検査用光学系の光軸から離れる方向である。検査用光学系から離れる方向については、水平方向(±x方向)および/または垂直方向(±y方向)において定義することが可能である。つまり、xy平面内の任意の方向において、検査用光学系から離れる方向を定義することが可能である。   Further, the outward direction of the support portion 440 is a direction in which the anterior eye camera 300 moves away from the optical axis of the inspection optical system. The direction away from the inspection optical system can be defined in the horizontal direction (± x direction) and / or the vertical direction (± y direction). That is, it is possible to define a direction away from the inspection optical system in an arbitrary direction in the xy plane.

また、前眼部カメラ300の移動方向および/または移動距離については、たとえば、移動前における前眼部カメラ300と支持部440との位置関係に基づいて設定することができる。また、画像判定部232による判定処理と、前眼部カメラ300の移動処理とを交互に行うことにより、前眼部カメラ300を好適な位置に追い込んでいくように制御を行うことも可能である。   Further, the moving direction and / or the moving distance of the anterior eye camera 300 can be set based on, for example, the positional relationship between the anterior eye camera 300 and the support unit 440 before the movement. Further, by alternately performing the determination process by the image determination unit 232 and the moving process of the anterior eye camera 300, it is possible to perform control so as to drive the anterior eye camera 300 to a suitable position. .

また、特徴点に相当する画像領域と所定領域との間の距離(ピクセル数)に応じて前眼部カメラ300の移動方向および/または移動距離を決定するように構成してもよい。また、特徴点に相当する画像領域と所定領域内の所定位置(たとえば中心位置)との間の距離に応じて前眼部カメラ300の移動方向および/または移動距離を決定するように構成することも可能である。   Further, the moving direction and / or moving distance of the anterior eye camera 300 may be determined according to the distance (the number of pixels) between the image area corresponding to the feature point and the predetermined area. In addition, the moving direction and / or the moving distance of the anterior eye camera 300 are determined according to the distance between an image area corresponding to a feature point and a predetermined position (for example, a center position) in the predetermined area. Is also possible.

(画像合成部)
画像合成部233は、2以上の前眼部カメラ300により実質的に同時に得られた2以上の撮影画像の合成画像を形成する。この合成画像の例として、2以上の撮影画像に基づく立体画像や視点変換により得られる画像(視点変換画像)がある。視点変換画像の視点は、たとえば検査用光学系の光軸上に設定される。これらの合成画像は公知の画像合成処理を用いることにより得られる。
(Image synthesis unit)
The image composition unit 233 forms a composite image of two or more captured images obtained substantially simultaneously by the two or more anterior eye cameras 300. Examples of the composite image include a stereoscopic image based on two or more captured images and an image obtained by viewpoint conversion (viewpoint conversion image). The viewpoint of the viewpoint conversion image is set, for example, on the optical axis of the inspection optical system. These synthesized images can be obtained by using a known image synthesis process.

以上のように機能する画像処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。   The image processing unit 230 that functions as described above includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, circuit board, and the like. In a storage device such as a hard disk drive, a computer program for causing the microprocessor to execute the above functions is stored in advance.

(ユーザインターフェイス)
ユーザインターフェイス240には、表示部241と操作部242とが含まれる。表示部241は、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部242は、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部242には、眼科装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。
(User interface)
The user interface 240 includes a display unit 241 and an operation unit 242. The display unit 241 includes the display device and the display device 3 of the arithmetic and control unit 200 described above. The operation unit 242 includes the operation device of the arithmetic and control unit 200 described above. The operation unit 242 may include various buttons and keys provided on the housing of the ophthalmologic apparatus 1 and on the outside.

たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部242は、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部241は、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。   For example, when the fundus camera unit 2 has a housing similar to that of a conventional fundus camera, the operation unit 242 may include a joystick, an operation panel, and the like provided in the housing. In addition, the display unit 241 may include various display devices such as a touch panel provided on a housing of the fundus camera unit 2.

[動作]
眼科装置1の動作について説明する。この動作例では、オートアライメントを含む一連の動作の全体的な流れを説明する。以下、図6に示すフローチャートを参照する。
[motion]
The operation of the ophthalmologic apparatus 1 will be described. In this operation example, an overall flow of a series of operations including auto alignment will be described. Hereinafter, reference will be made to the flowchart shown in FIG.

(S1:撮影画面の表示)
制御部210は、図7Aに示す撮影画面1000を表示部241に表示させる。撮影画面1000内の左側の表示領域(第1の表示領域)1001には、眼底カメラユニット2により取得される赤外観察画像(前眼部Eaの正面画像)2000がリアルタイムで動画表示される。また、撮影画面1000内の右側の表示領域(第2の表示領域)1002には、前眼部カメラ300Aおよび300Bの一方により取得される前眼部像が動画表示される。第2の表示領域1002の下方には、「Capture START」ボタン1003が設けられている。
(S1: Display of shooting screen)
The control unit 210 causes the display unit 241 to display the shooting screen 1000 shown in FIG. 7A. In a left display area (first display area) 1001 in the photographing screen 1000, an infrared observation image (front image of the anterior segment Ea) 2000 acquired by the fundus camera unit 2 is displayed as a moving image in real time. In the right display area (second display area) 1002 in the photographing screen 1000, an anterior eye image acquired by one of the anterior eye cameras 300A and 300B is displayed as a moving image. A “Capture START” button 1003 is provided below the second display area 1002.

(S2:オートアライメント)
「Capture START」ボタン1003が操作(クリック)されると、制御部210は、オートアライメントを行うためのアライメント画面1010(図7Bを参照)を表示部241に表示させる。アライメント画面1010には、少なくとも、オートアライメントを行うために用いられる画像が表示される。
(S2: Auto alignment)
When the “Capture START” button 1003 is operated (clicked), the control unit 210 causes the display unit 241 to display an alignment screen 1010 (see FIG. 7B) for performing automatic alignment. At least an image used for performing automatic alignment is displayed on alignment screen 1010.

前眼部カメラ300Aおよび300Bにより取得される2つの前眼部像を用いたオートアライメントについて説明する。本例では、2つの前眼部カメラ300Aおよび300Bにより取得される被検眼Eの2つの前眼部像が合成表示される。これら前眼部像はそれぞれリアルタイムで取得され、それらの合成画像はリアルタイムで動画表示される。つまり、この合成表示は、前眼部カメラ300Aおよび300Bにより実質的に同時に取得された2つの前眼部像(静止画像)に基づく合成画像(静止画像)を1フレームとする動画表示である。   Auto alignment using two anterior eye images acquired by the anterior eye cameras 300A and 300B will be described. In this example, two anterior eye images of the subject's eye E acquired by the two anterior eye cameras 300A and 300B are combined and displayed. These anterior ocular segment images are acquired in real time, respectively, and their combined images are displayed as moving images in real time. That is, this combined display is a moving image display in which a combined image (still image) based on two anterior eye images (still images) acquired substantially simultaneously by the anterior eye cameras 300A and 300B is one frame.

各フレーム(各合成画像)の作成方法を説明する。1つのフレームは、上記のように、前眼部カメラ300Aおよび300Bにより実質的に同時に取得された2つの前眼部像に基づく。フレームの作成方法の第1の例として、一方の前眼部像の部分画像と、他方の前眼部像の部分画像とを並列表示させることができる。これら部分画像としては、各々のフレームにおいて互いに異なる部分が用いられる。各部分画像は、その元となる前眼部像の一部をトリミングすることによって得られる。この処理は、制御部210または画像処理部230によって実行される。   A method for creating each frame (each synthesized image) will be described. One frame is based on two anterior eye images acquired substantially simultaneously by anterior eye cameras 300A and 300B, as described above. As a first example of a frame creation method, a partial image of one anterior ocular segment image and a partial image of the other anterior ocular segment image can be displayed in parallel. As these partial images, different portions in each frame are used. Each partial image is obtained by trimming a part of the original anterior segment image. This processing is executed by the control unit 210 or the image processing unit 230.

図7Bに示すアライメント画面1010には、第1の表示領域1011と第2の表示領域とが設けられている。第1の表示領域1011には、前眼部カメラ300Aにより取得された前眼部像のうちフレームの上半分に相当する第1の部分画像2110が表示される。第2の表示領域1012には、前眼部カメラ300Bにより取得された前眼部像のうちフレームの下半分に相当する第2の部分画像2120が表示される。   A first display area 1011 and a second display area are provided on an alignment screen 1010 shown in FIG. 7B. In the first display area 1011, a first partial image 2110 corresponding to the upper half of the frame in the anterior ocular segment image acquired by the anterior ocular segment camera 300 </ b> A is displayed. In the second display area 1012, a second partial image 2120 corresponding to the lower half of the frame among the anterior eye images acquired by the anterior eye camera 300B is displayed.

第1の表示領域1011と第2の表示領域1012は、前者が上方に且つ後者が下方に位置するように配置されている。ここで、第1の表示領域1011の下端と第2の表示領域1012の上端とが接している。このように、本例においては、2つの部分画像がそれらの位置関係に応じた配列で表示される。   The first display area 1011 and the second display area 1012 are arranged such that the former is located above and the latter is located below. Here, the lower end of the first display area 1011 is in contact with the upper end of the second display area 1012. Thus, in this example, two partial images are displayed in an array according to their positional relationship.

光学系駆動部2Aにより眼底カメラユニット2が±z方向に移動されると、被検眼Eに対する前眼部カメラ300Aおよび300Bの位置の変化に伴い、2つの部分画像2110および2120は、相対的に横方向に変位する。また、光学系駆動部2Aにより眼底カメラユニット2がxy方向において移動されると、被検眼Eに対する前眼部カメラ300Aおよび300Bの位置の変化に伴い、2つの部分画像2110および2120は、一体的に、装置光学系の移動方向に応じた方向に、それぞれ第1の表示領域1011および第2の表示領域1012において変位する。   When the fundus camera unit 2 is moved in the ± z direction by the optical system driving unit 2A, the two partial images 2110 and 2120 relatively move with the change in the positions of the anterior eye cameras 300A and 300B with respect to the eye E to be examined. Displaces laterally. Further, when the fundus camera unit 2 is moved in the xy directions by the optical system driving unit 2A, the two partial images 2110 and 2120 are integrated with the change in the positions of the anterior eye cameras 300A and 300B with respect to the eye E to be examined. At the same time, the first display area 1011 and the second display area 1012 are displaced in directions corresponding to the moving direction of the apparatus optical system.

前述したように、解析部231は、第1の部分画像2110(またはその元の画像の全体)を解析することにより、被検眼Eの特徴部位に相当する画像領域(第1の特徴領域)を特定する。同様に、解析部231は、第2の部分画像2120(またはその元の画像の全体)を解析することにより、被検眼Eの特徴部位に相当する画像領域(第2の特徴領域)を特定する。各特徴領域は、たとえば瞳孔(瞳孔輪郭、瞳孔中心など)である。図7Bにおいて、符号2110aは、瞳孔輪郭に相当する第1の特徴領域を示し、符号2120aは、瞳孔輪郭に相当する第2の特徴領域を示す。   As described above, the analysis unit 231 analyzes the first partial image 2110 (or the entire original image) to determine an image region (first characteristic region) corresponding to a characteristic part of the eye E. Identify. Similarly, the analysis unit 231 analyzes the second partial image 2120 (or the entire original image) to specify an image region (a second characteristic region) corresponding to a characteristic part of the eye E to be inspected. . Each feature region is, for example, a pupil (pupil contour, pupil center, etc.). In FIG. 7B, reference numeral 2110a indicates a first characteristic region corresponding to a pupil contour, and reference numeral 2120a indicates a second characteristic region corresponding to a pupil contour.

さらに、解析部231は、第1の特徴領域2110aと第2の特徴領域2120aとの変位を算出する。この変位は、横方向における変位を含む。前述したように、横方向における変位は、±z方向における検査用光学系の位置ズレに相当する。解析部231は、解析部231により算出された第1の特徴領域2110aと第2の特徴領域2120aとの間の変位に相当する、検査用光学系の移動方向および移動距離を求める。   Further, the analysis unit 231 calculates a displacement between the first characteristic region 2110a and the second characteristic region 2120a. This displacement includes a displacement in the lateral direction. As described above, the displacement in the lateral direction corresponds to a positional shift of the inspection optical system in the ± z directions. The analyzing unit 231 obtains a moving direction and a moving distance of the inspection optical system corresponding to the displacement between the first characteristic region 2110a and the second characteristic region 2120a calculated by the analyzing unit 231.

この処理は、たとえば、特徴領域間の変位と、移動方向および移動距離とが関連付けられた情報を参照して実行される。この情報は、2つの前眼部カメラ300Aおよび300Bが設置された位置や、作動距離などに基づいて、あらかじめ作成されて記憶部212または解析部231に格納される。   This processing is executed, for example, with reference to information in which the displacement between the characteristic regions, the moving direction and the moving distance are associated with each other. This information is created in advance and stored in the storage unit 212 or the analysis unit 231 based on the positions where the two anterior eye cameras 300A and 300B are installed, the working distance, and the like.

制御部210は、解析部231により求められた移動距離および移動方向に基づいて光学系駆動部2Aを制御することにより、眼底カメラユニット2を+z方向または−z方向に移動させる。このような処理を実行することによって、第1の特徴領域2110aと第2の特徴領域2120aとが合致するように(つまり第1の特徴領域2110aと第2の特徴領域2120aとが組み合わされて瞳孔を示す画像が形成されるように)、z方向のアライメントが実行される(図7Cを参照)。   The control unit 210 moves the fundus camera unit 2 in the + z direction or the −z direction by controlling the optical system driving unit 2A based on the moving distance and the moving direction obtained by the analyzing unit 231. By executing such processing, the first feature region 2110a and the second feature region 2120a match (that is, the pupil is combined with the first feature region 2110a and the second feature region 2120a). Is formed) (see FIG. 7C).

図7Cに示すアライメント画面1010のほぼ中央に提示されている括弧2101およびそれに囲まれた円2102は、アライメントにおけるターゲット位置を示している。括弧2101は瞳孔輪郭のターゲット位置であり、円2102は瞳孔中心のターゲット位置である。   Parentheses 2101 and a circle 2102 surrounded by the parentheses 2101 presented at substantially the center of the alignment screen 1010 shown in FIG. 7C indicate target positions in alignment. Parentheses 2101 indicate target positions of the pupil contour, and circles 2102 indicate target positions at the center of the pupil.

また、解析部231は、第1の特徴領域2110aおよび第2の特徴領域2120aのそれぞれの位置と、ターゲット位置(括弧2101、円2102)との間の変位を算出する。さらに、解析部231は、解析部231により算出された変位に相当する検査用光学系の移動方向および移動距離を求める。この処理は、たとえば、特徴領域とターゲット位置との間の変位と、移動方向および移動距離とが関連付けられた情報を参照して実行される。この情報は、2つの前眼部カメラ300Aおよび300Bが設置された位置や、作動距離などに基づいて、あらかじめ作成されて記憶部212または解析部231に格納される。   In addition, the analysis unit 231 calculates a displacement between the position of each of the first characteristic region 2110a and the second characteristic region 2120a and the target position (parentheses 2101, circle 2102). Further, the analyzing unit 231 obtains a moving direction and a moving distance of the inspection optical system corresponding to the displacement calculated by the analyzing unit 231. This processing is executed, for example, with reference to information in which the displacement between the characteristic region and the target position is associated with the moving direction and the moving distance. This information is created in advance and stored in the storage unit 212 or the analysis unit 231 based on the positions where the two anterior eye cameras 300A and 300B are installed, the working distance, and the like.

制御部210は、解析部231により求められた移動距離および移動方向に基づいて光学系駆動部2Aを制御することにより、+x方向若しくは−x方向および/または+y方向若しくは−y方向に眼底カメラユニット2を移動させる。このような処理を実行することによってxy方向のアライメントが行われる。xy方向におけるアライメント状態とz方向におけるアライメント状態とを両立させることで、検査用光学系は、被検眼Eに対して3次元的に好適な位置に配置される。このとき、アライメント画面1010は、図7Cに示すような表示状態となる。   The control unit 210 controls the optical system driving unit 2A based on the moving distance and the moving direction obtained by the analyzing unit 231 to thereby control the fundus camera unit in the + x direction or the −x direction and / or the + y direction or the −y direction. Move 2 By performing such processing, alignment in the xy directions is performed. By making the alignment state in the xy direction and the alignment state in the z direction compatible, the inspection optical system is arranged at a three-dimensionally preferable position with respect to the eye E to be inspected. At this time, the alignment screen 1010 is in a display state as shown in FIG. 7C.

なお、図7Bおよび図7Cに示す「Capture STOP」ボタン1013は、この動作例の処理を中止(または中断)するために操作(クリック)される。   The “Capture STOP” button 1013 shown in FIGS. 7B and 7C is operated (clicked) to stop (or stop) the processing of this operation example.

(S3:オートフォーカス)
オートアライメントの完了を受けて、制御部210は、スプリット指標を用いたオートフォーカスを前述した要領で実行する。
(S3: Auto focus)
Upon completion of the auto alignment, the control unit 210 executes the auto focus using the split index in the manner described above.

(S4:オートPola)
オートフォーカスの完了を受けて、制御部210は、自動偏光調整(オートPola)を実行する。オートPolaは、たとえば、反復的に取得されるOCT画像(断面像)の画質をリアルタイムで判定しつつ偏波調整器106を制御することによって実行される。
(S4: Auto Pola)
In response to the completion of the autofocus, the control unit 210 executes an automatic polarization adjustment (AutoPola). The Auto Pola is executed, for example, by controlling the polarization adjuster 106 while determining the image quality of an OCT image (cross-sectional image) repeatedly acquired in real time.

(S5:OCTオートフォーカス)
オートPolaが完了したら、制御部210は、OCTオートフォーカスを実行する。OCTオートフォーカスは、眼底Efの所定部位(たとえば網膜の任意の層や、脈絡膜)に対応する信号の干渉感度が最適化されるように、光路長変更部41を制御して信号光の光路長を変更する処理である。
(S5: OCT auto focus)
When the auto Pola is completed, the control unit 210 executes the OCT auto focus. The OCT autofocus controls the optical path length changing unit 41 so as to optimize the interference sensitivity of a signal corresponding to a predetermined portion of the fundus oculi Ef (for example, an arbitrary layer of the retina or the choroid), and controls the optical path length of the signal light. Is the process of changing

(S6:計測開始の指示)
OCTオートフォーカスが完了すると、制御部210は、その旨を示す情報(図示せず)を表示部241に表示させる。ユーザは、眼底Efの計測を開始させるためのトリガ操作を、操作部242を用いて行う。OCTオートフォーカスの完了を計測開始のトリガとして用いる構成を適用することも可能である。その場合、ステップS6は不要である。
(S6: Measurement start instruction)
When the OCT autofocus is completed, the control unit 210 causes the display unit 241 to display information (not shown) indicating that. The user performs a trigger operation for starting the measurement of the fundus oculi Ef using the operation unit 242. It is also possible to apply a configuration in which the completion of OCT autofocus is used as a trigger for starting measurement. In that case, step S6 is unnecessary.

(S7:OCT計測開始)
瞳孔に相当する画像領域が特定された場合、制御部210は、眼底EfのOCT計測を開始するようOCTユニット100に実行させる。OCTユニット100は、OCT計測用の光路を通過する信号光LSの進行方向を変更し、信号光LSを眼底Ef上において走査するようガルバノスキャナ42を制御する。
(S7: OCT measurement start)
When the image area corresponding to the pupil is specified, the control unit 210 causes the OCT unit 100 to start the OCT measurement of the fundus oculi Ef. The OCT unit 100 changes the traveling direction of the signal light LS passing through the optical path for OCT measurement, and controls the galvano scanner 42 to scan the signal light LS on the fundus oculi Ef.

図8は、眼底Efの画像を形成するための信号光LSの走査態様の一例を表している。図8は、信号光LSが被検眼Eに入射する方向から眼底Efを見た(つまり図1の−z方向から+z方向を見た)ときの、信号光LSの走査態様の一例を表す。また、図9は、眼底Ef上の各走査線における走査点の配列態様の一例を表す。   FIG. 8 illustrates an example of a scanning mode of the signal light LS for forming an image of the fundus oculi Ef. FIG. 8 illustrates an example of a scanning mode of the signal light LS when the fundus oculi Ef is viewed from the direction in which the signal light LS enters the eye E (that is, when the + z direction is viewed from the −z direction in FIG. 1). FIG. 9 shows an example of an arrangement of scanning points on each scanning line on the fundus oculi Ef.

図8に示すように、信号光LSは、あらかじめ設定された矩形の走査領域R内を走査される。この走査領域R内には、x方向に複数(m本)の走査線R1〜Rmが設定されている。各走査線Ri(i=1〜m)に沿って信号光LSが走査されるときに、干渉光LCの検出信号が生成されるようになっている。   As shown in FIG. 8, the signal light LS is scanned in a rectangular scanning region R set in advance. In this scanning region R, a plurality (m) of scanning lines R1 to Rm are set in the x direction. When the signal light LS is scanned along each scanning line Ri (i = 1 to m), a detection signal of the interference light LC is generated.

ここで、各走査線Riの方向を「主走査方向」と呼び、それに直交する方向を「副走査方向」と呼ぶことにする。したがって、信号光LSの主走査方向への走査は、y方向に走査するガルバノミラーの反射面の向きを変更することにより為され、副走査方向への走査は、x方向に走査するガルバノミラーの反射面の向きを変更することによって為される。   Here, the direction of each scanning line Ri is referred to as a "main scanning direction", and a direction orthogonal thereto is referred to as a "sub-scanning direction". Therefore, the scanning of the signal light LS in the main scanning direction is performed by changing the direction of the reflection surface of the galvanomirror that scans in the y direction, and the scanning in the subscanning direction is performed by the galvanomirror that scans in the x direction. This is done by changing the direction of the reflecting surface.

各走査線Ri上には、図9に示すように、複数(n個)の走査点Ri1〜Rinがあらかじめ設定されている。図8に示す走査を実行するために、制御部210は、まず、ガルバノスキャナ42を制御し、眼底Efに対する信号光LSの入射目標を第1の走査線R1上の走査開始位置RS(走査点R11)に設定する。続いて、制御部210は、低コヒーレンス光源160を制御し、低コヒーレンス光L0をフラッシュ発光させて、走査開始位置RSに信号光LSを入射させる。CCDイメージセンサ115は、この信号光LSの走査開始位置RSにおける眼底反射光に基づく干渉光LCを受光し、検出信号を制御部210に出力する。   As shown in FIG. 9, a plurality of (n) scanning points Ri1 to Rin are set in advance on each scanning line Ri. In order to execute the scanning shown in FIG. 8, the control unit 210 first controls the galvano scanner 42 to set the target of incidence of the signal light LS to the fundus oculi Ef to the scanning start position RS (scanning point RS) on the first scanning line R1. R11). Subsequently, the control unit 210 controls the low-coherence light source 160, causes the low-coherence light L0 to emit flash light, and causes the signal light LS to enter the scanning start position RS. The CCD image sensor 115 receives the interference light LC based on the fundus reflection light at the scanning start position RS of the signal light LS, and outputs a detection signal to the control unit 210.

次に、制御部210は、ガルバノスキャナ42を制御して、信号光LSを主走査方向に走査して、その入射目標を走査点R12に設定し、低コヒーレンス光L0をフラッシュ発光させて走査点R12に信号光LSを入射させる。CCDイメージセンサ115は、この信号光LSの走査点R12における眼底反射光に基づく干渉光LCを受光し、検出信号を制御部210に出力する。   Next, the control unit 210 controls the galvano scanner 42 to scan the signal light LS in the main scanning direction, set the incident target to the scanning point R12, emit the low coherence light L0 in flash light, and scan the scanning point R12. The signal light LS is made incident on R12. The CCD image sensor 115 receives the interference light LC based on the fundus reflection light of the signal light LS at the scanning point R12, and outputs a detection signal to the control unit 210.

制御部210は、同様にして、信号光LSの入射目標を走査点R13、R14、・・・、R1(n−1)、R1nと順次移動させつつ、各走査点において低コヒーレンス光L0をフラッシュ発光させることにより、各走査点の干渉光LCに対応してCCDイメージセンサ115から出力される検出信号を取得する。   Similarly, the control unit 210 flashes the low coherence light L0 at each scanning point while sequentially moving the incident target of the signal light LS to the scanning points R13, R14,..., R1 (n-1), R1n. By emitting light, a detection signal output from the CCD image sensor 115 corresponding to the interference light LC at each scanning point is obtained.

第1の走査線R1の最後の走査点R1nにおける計測が終了したら、制御部210は、ガルバノスキャナ42を制御して、信号光LSの入射目標を、線換え走査rに沿って第2の走査線R2の最初の走査点R21まで移動させる。そして、この第2の走査線R2の各走査点R2j(j=1〜n)について前述の計測を行うことで、各走査点R2jに対応する検出信号をそれぞれ取得する。   When the measurement at the last scanning point R1n of the first scanning line R1 is completed, the control unit 210 controls the galvano scanner 42 to set the incident target of the signal light LS to the second scanning along the line-changing scanning r. Move to the first scanning point R21 of the line R2. Then, by performing the above-described measurement on each scanning point R2j (j = 1 to n) of the second scanning line R2, a detection signal corresponding to each scanning point R2j is obtained.

同様に、第3の走査線R3、・・・・、第m−1の走査線R(m−1)、第mの走査線Rmのそれぞれについて計測を行い、各走査点に対応する検出信号を取得する。なお、走査線Rm上の符号REは、走査点Rmnに対応する走査終了位置である。それにより、制御部210は、走査領域R内のm×n個の走査点Rij(i=1〜m、j=1〜n)に対応するm×n個の検出信号を取得する。以下、走査点Rijに対応する検出信号をDijと表すことがある。   Similarly, measurement is performed for each of the third scanning line R3,..., The (m−1) th scanning line R (m−1), and the mth scanning line Rm, and the detection signal corresponding to each scanning point is measured. To get. The symbol RE on the scanning line Rm is a scanning end position corresponding to the scanning point Rmn. Thereby, the control unit 210 acquires m × n detection signals corresponding to m × n scanning points Rij (i = 1 to m, j = 1 to n) in the scanning region R. Hereinafter, the detection signal corresponding to the scanning point Rij may be represented as Dij.

以上のような走査点の移動と低コヒーレンス光L0の出力との連動制御は、たとえば、ガルバノスキャナ42に対する制御信号の送信タイミングと、光源ユニット101に対する制御信号(出力要求信号)の送信タイミングとを互いに同期させることによって実現することができる。   The interlocking control between the movement of the scanning point and the output of the low coherence light L0 is performed, for example, by setting the transmission timing of the control signal to the galvano scanner 42 and the transmission timing of the control signal (output request signal) to the light source unit 101. This can be achieved by synchronizing with each other.

制御部210は、上述のようにガルバノミラーを動作させるときに、その動作内容を示す情報として各走査線Riの位置や各走査点Rijの位置(xy座標系における座標)を記憶しておくようになっている。この記憶内容(走査位置情報)は、従来と同様に画像形成処理において用いられる。   When operating the galvanomirror as described above, the control unit 210 stores the position of each scanning line Ri and the position of each scanning point Rij (coordinates in the xy coordinate system) as information indicating the details of the operation. It has become. This stored content (scanning position information) is used in the image forming process as in the related art.

(S8:前眼部像の取得)
計測開始の指示が行われると、制御部210は、被検眼Eの前眼部Eaを撮像して前眼部像を取得するよう前眼部カメラ300を制御する。ステップS2のオートアライメントにおいて、前眼部カメラ300は、前眼部カメラ300Aおよび300Bの双方から前眼部像を取得している。ステップS7では、前眼部カメラ300Aおよび300Bの少なくとも一方から前眼部像を取得すればよい。
(S8: Obtain anterior eye image)
When the measurement start instruction is issued, the control unit 210 controls the anterior ocular segment camera 300 to capture an anterior ocular segment image of the anterior ocular segment Ea of the eye E to be inspected. In the automatic alignment in step S2, the anterior eye camera 300 has acquired an anterior eye image from both the anterior eye cameras 300A and 300B. In step S7, an anterior eye image may be obtained from at least one of the anterior eye cameras 300A and 300B.

(S9:瞳孔に相当する画像領域を特定?)
前眼部像の取得が完了すると、制御部210は、前眼部Eaの瞳孔に相当する画像領域を特定するよう画像処理部230の画像判定部232を制御する。画像判定部232の特徴位置特定部2312は、前眼部カメラ300が得た前眼部像から前眼部Eaの瞳孔輪郭を抽出し、瞳孔輪郭に囲まれる領域を瞳孔に相当する画像領域として特定する。
(S9: Specify image area corresponding to pupil?)
When the acquisition of the anterior ocular segment image is completed, the control unit 210 controls the image determining unit 232 of the image processing unit 230 to specify an image area corresponding to the pupil of the anterior ocular segment Ea. The feature position specifying unit 2312 of the image determination unit 232 extracts the pupil contour of the anterior eye Ea from the anterior eye image obtained by the anterior eye camera 300, and sets a region surrounded by the pupil contour as an image region corresponding to the pupil. Identify.

制御部210は、特徴位置特定部2312が瞳孔に相当する画像領域を特定した場合にはステップS10に処理を進め、特徴位置特定部2312が瞳孔に相当する画像領域を特定できない場合にはステップS11に処理を進める。特徴位置特定部2312が瞳孔に相当する画像領域を特定できない場合とは、例えば、被検者が瞬き等を行ったためにOCTユニット(検査部)100から検出信号が出力されない場合である。この場合、画像判定部232は、特徴位置特定部2312の特定結果に基づいて、OCTユニット100が後述する走査領域(検査範囲)Rを検査可能な状態でないと判定し、ステップS11に処理を進める。   Control unit 210 proceeds to step S10 when feature position specifying unit 2312 specifies an image region corresponding to a pupil, and proceeds to step S11 when feature position specifying unit 2312 cannot specify an image region corresponding to a pupil. Processing proceeds to The case where the characteristic position specifying unit 2312 cannot specify the image area corresponding to the pupil is, for example, a case where no detection signal is output from the OCT unit (inspection unit) 100 because the subject has blinked or the like. In this case, the image determination unit 232 determines that the OCT unit 100 is not in a state where the scanning area (inspection range) R described later can be inspected based on the identification result of the characteristic position identification unit 2312, and proceeds to step S11. .

(S10:走査領域Rの走査終了?)
前眼部像から瞳孔に相当する画像領域が特定された場合、制御部210は、ステップS9で開始されたOCT計測による走査領域Rの走査が終了したかどうかを判定する。制御部210は、走査領域Rの走査が終了したと判定した場合はステップS12に処理を進め、走査領域Rの走査が終了していないと判定した場合はステップS8に処理を進める。
(S10: End of scanning of scanning region R?)
When the image region corresponding to the pupil is specified from the anterior eye image, the control unit 210 determines whether the scanning of the scanning region R by the OCT measurement started in step S9 has been completed. If the control unit 210 determines that the scanning of the scanning region R has been completed, the process proceeds to step S12, and if it determines that the scanning of the scanning region R has not been completed, the process proceeds to step S8.

なお、ステップS8で前眼部カメラ300が前眼部像を撮像してからステップS10で走査領域Rの走査が終了したかどうかを判定するまでの処理時間は、副走査方向の複数の走査点の走査間隔よりも短くするのが望ましい。走査間隔よりも短い間隔で瞳孔に相当する画像領域を特定することにより、被検者の瞬き等によりOCTユニット(検査部)100から検出信号が出力されないことを各走査点について確実に判定することができる。   Note that the processing time from when the anterior eye camera 300 captures an anterior eye image in step S8 to when it is determined in step S10 whether scanning of the scanning region R has been completed is determined by a plurality of scanning points in the sub-scanning direction. It is desirable to make the scanning interval shorter than the scanning interval. By specifying an image area corresponding to the pupil at intervals shorter than the scanning interval, it is possible to reliably determine that no detection signal is output from the OCT unit (inspection unit) 100 due to blinking of the subject for each scanning point. Can be.

(S11:OCT計測不可の走査点を記憶)
前眼部像から瞳孔に相当する画像領域が特定されない場合、制御部210は、OCT計測不可の走査点を記憶する。制御部210は、ステップS9でNOと判定された直後に走査される走査点Rij(i=1〜m、j=1〜n)を、OCT計測不可の走査点として記憶部212に記憶させる。
(S11: Store scan points where OCT measurement is not possible)
When the image area corresponding to the pupil is not specified from the anterior eye image, the control unit 210 stores a scan point where OCT measurement is not possible. The control unit 210 causes the storage unit 212 to store the scanning point Rij (i = 1 to m, j = 1 to n) scanned immediately after the determination in step S9 is NO, as a scanning point where OCT measurement is impossible.

被検者の瞬き等によりOCTユニット(検査部)100から検出信号が走査間隔よりも長い所定期間に渡って出力されない場合、制御部210は、ステップS9でNOと判定する処理と走査点を記憶する処理を複数回実行する。制御部210は、ステップS11の後に再びステップS8の処理を実行し、前眼部カメラ300が前眼部像を取得する。   When a detection signal is not output from the OCT unit (inspection unit) 100 for a predetermined period longer than the scanning interval due to blinking of the subject or the like, the control unit 210 stores the process of determining NO in step S9 and the scanning point. Execute the process to be performed multiple times. The control unit 210 executes the process of step S8 again after step S11, and the anterior ocular segment camera 300 acquires an anterior ocular segment image.

(S12:OCT計測不可の走査点があるか?)
走査領域Rの走査が終了した場合、制御部210は、OCT計測不可の走査点があるかどうかを判定する。制御部210は、ステップS7でOCT計測を開始した後にOCT計測不可の走査点が記憶部212に記憶された場合に、YESと判定する。制御部210は、ステップS12でYESと判定した場合はステップS8へ処理を進め、ステップS10でNOと判定した場合はステップS13へ処理を進める。
(S12: Is there a scan point where OCT measurement is not possible?)
When the scanning of the scanning region R is completed, the control unit 210 determines whether there is a scanning point where OCT measurement cannot be performed. The control unit 210 determines YES when a scan point where OCT measurement is impossible is stored in the storage unit 212 after the OCT measurement is started in step S7. Control unit 210 proceeds with the process to step S8 if determined to be YES in step S12, and proceeds to step S13 if determined to be NO in step S10.

OCT計測不可の走査点がある場合、制御部210は、ステップS8〜ステップS11までの処理を再び実行し、OCT計測不可の走査点を再び走査するようOCTユニット100を制御する。すなわち、制御部210は、OCTユニット100が走査領域Rを走査可能(検査可能)な状態でないと画像判定部232が判定した場合に、走査領域Rの検査を再度実行するようOCTユニット100を制御する。   If there is a scan point where OCT measurement is not possible, the control unit 210 controls the OCT unit 100 so as to execute the processing from step S8 to step S11 again and scan again the scan point where OCT measurement is not possible. That is, the control unit 210 controls the OCT unit 100 to execute the inspection of the scanning region R again when the image determination unit 232 determines that the OCT unit 100 is not in a state where the scanning region R can be scanned (inspection is possible). I do.

制御部210は、走査領域Rの検査を再度実行する際に、以下の3つのいずれかの方式により走査領域Rの検査を行う。制御部210は、以下の3つのいずれか1つのみを実行しても、以下の3つのいずれかを使用者の指示に基づいて選択して実行してもよい。   When performing the inspection of the scanning region R again, the control unit 210 inspects the scanning region R by any one of the following three methods. The control unit 210 may execute only one of the following three, or may select and execute one of the following three based on a user's instruction.

第1の方式は、走査領域Rの全領域を再び光学的に検査する方式である。制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域Rの全領域を再び光学的に検査するようにOCTユニット100を制御する。すなわち、制御部210は、走査領域R内のすべての走査点を再び光学的に検査するようにOCTユニット100を制御する。   The first method is to optically inspect the entire scanning region R again. When the image determination unit 232 determines that the scanning region R is not in a state in which the scanning region R can be inspected, the control unit 210 controls the OCT unit 100 to optically inspect the entire scanning region R again. That is, the control unit 210 controls the OCT unit 100 to optically inspect all the scanning points in the scanning region R again.

第2の方式は、走査領域RのうちOCTユニット100による検査が行われていない走査点を含む全ての走査線を再び光学的に検査する方式である。制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域RのうちOCTユニットによる検査が行われていない走査点を含む全ての走査線を再び光学的に検査するようにOCTユニット100を制御する。制御部210は、記憶部212に記憶されたOCT計測不可の走査点を読み出し、読み出した走査点を含む走査線を特定する。制御部210は、特定した全ての走査線を再び光学的に検査するようにOCTユニット100を制御する。   The second method is a method of optically inspecting again all scanning lines including scanning points in the scanning region R that have not been inspected by the OCT unit 100. When the image determination unit 232 determines that the scanning region R is not in a state in which the scanning region R can be inspected, the control unit 210 re-optically scans all the scanning lines including the scanning points in the scanning region R that have not been inspected by the OCT unit. The OCT unit 100 is controlled so as to perform an inspection. The control unit 210 reads out the scan points where the OCT measurement is not possible, stored in the storage unit 212, and specifies a scan line including the read out scan points. The control unit 210 controls the OCT unit 100 to optically inspect all the specified scanning lines again.

第3の方式は、走査領域RのうちOCTユニット100による検査が行われていない走査点を再び光学的に検査する方式である。制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域RのうちOCTユニットによる検査が行われていない走査点を再び光学的に検査するようにOCTユニット100を制御する。制御部210は、記憶部212に記憶されたOCT計測不可の走査点を読み出し、読み出した走査点を特定する。制御部210は、特定した全ての走査点を再び光学的に検査するようにOCTユニット100を制御する。   The third method is a method of optically inspecting again a scanning point in the scanning region R that has not been inspected by the OCT unit 100. When the image determination unit 232 determines that the scanning area R is not in a state in which the scanning area R can be inspected, the control unit 210 optically inspects again the scanning points in the scanning area R that have not been inspected by the OCT unit. The OCT unit 100 is controlled. The control unit 210 reads out the scan points where the OCT measurement is not possible, stored in the storage unit 212, and specifies the read scan points. The control unit 210 controls the OCT unit 100 to optically inspect all the specified scanning points again.

(S13:OCT画像を形成)
OCT計測不可の走査点がないと判定された場合、画像形成部220は、OCTユニット100からの検出信号に基づいてOCT画像を形成する。制御部210は、形成されたOCT画像を記憶部212に記憶させる。3次元スキャンが適用される場合、画像処理部230は、画像形成部220により形成された複数の断面像に基づいて3次元画像データを形成する。制御部210は、形成された3次元画像データを記憶部212に記憶させる。制御部210は、ステップS13が終了したことに応じて、図6に示すフローチャートの処理を終了させる。
(S13: OCT image is formed)
When it is determined that there is no scan point where OCT measurement is not possible, the image forming unit 220 forms an OCT image based on a detection signal from the OCT unit 100. The control unit 210 causes the storage unit 212 to store the formed OCT image. When three-dimensional scanning is applied, the image processing unit 230 forms three-dimensional image data based on the plurality of cross-sectional images formed by the image forming unit 220. The control unit 210 causes the storage unit 212 to store the formed three-dimensional image data. The control unit 210 ends the processing of the flowchart shown in FIG. 6 in response to the end of step S13.

画像形成部220は、各走査点Rijに対応する検出信号Dijに基づいて、その走査点Rijにおける眼底Efの深度方向(図1に示すz方向)の画像を形成する。図10は、画像形成部220により形成される断層画像の態様を表している。画像形成部220は、各走査線Riについて、その上のn個の走査点Ri1〜Rinにおける深度方向の画像に基づき、この走査線Riに沿った眼底Efの断層画像Giを形成する。   The image forming unit 220 forms an image of the fundus oculi Ef at the scanning point Rij in the depth direction (z direction shown in FIG. 1) based on the detection signal Dij corresponding to each scanning point Rij. FIG. 10 illustrates a mode of a tomographic image formed by the image forming unit 220. The image forming unit 220 forms a tomographic image Gi of the fundus oculi Ef along each scanning line Ri along the scanning line Ri based on the images in the depth direction at the n scanning points Ri1 to Rin thereon.

このとき、画像形成部220は、各走査点Ri1〜Rinの位置情報(前述の走査位置情報)を参照して各走査点Ri1〜Rinの配列及び間隔を決定して、この走査線Riを形成するようになっている。以上の処理により、副走査方向(y方向)の異なる位置におけるm個の断層画像G1〜Gmが得られる。   At this time, the image forming unit 220 determines the arrangement and interval of each of the scanning points Ri1 to Rin with reference to the position information (the above-described scanning position information) of each of the scanning points Ri1 to Rin, and forms this scanning line Ri. It is supposed to. Through the above processing, m tomographic images G1 to Gm at different positions in the sub-scanning direction (y direction) are obtained.

画像処理部230は、各走査線Ri(主走査方向)に沿った眼底Efの断層画像に基づく眼底Efの3次元画像の形成処理を実行する。眼底Efの3次元画像は、上記の演算処理により得られたm個の断層画像に基づいて形成される。画像処理部230は、隣接する断層画像Gi、G(i+1)の間の画像を補間する公知の補間処理を行うなどして、眼底Efの3次元画像を形成する。   The image processing unit 230 executes a process of forming a three-dimensional image of the fundus oculi Ef based on a tomographic image of the fundus oculi Ef along each scanning line Ri (main scanning direction). The three-dimensional image of the fundus oculi Ef is formed based on the m tomographic images obtained by the above arithmetic processing. The image processing unit 230 forms a three-dimensional image of the fundus oculi Ef by performing a known interpolation process of interpolating an image between the adjacent tomographic images Gi and G (i + 1).

このとき、画像処理部230は、各走査線Riの位置情報を参照して各走査線Riの配列及び間隔を決定して、この3次元画像を形成するようになっている。この3次元画像には、各走査点Rijの位置情報(前述の走査位置情報)と、深度方向の画像におけるz座標とに基づいて、3次元座標系(x、y、z)が設定される。なお、図10に示す画像Gmjは、走査線Rm上の走査点Rmjにおける深度方向(z方向)の画像を表している。   At this time, the image processing unit 230 determines the arrangement and interval of each scanning line Ri with reference to the position information of each scanning line Ri, and forms this three-dimensional image. In this three-dimensional image, a three-dimensional coordinate system (x, y, z) is set based on the position information of each scanning point Rij (the above-described scanning position information) and the z coordinate in the image in the depth direction. . Note that the image Gmj shown in FIG. 10 represents an image in the depth direction (z direction) at the scanning point Rmj on the scanning line Rm.

以上説明した本実施形態の眼科装置1が奏する作用および効果について説明する。
本実施形態の眼科装置1によれば、OCTユニット100が被検眼Eの眼底Efの走査領域(検査範囲)Rを光学的に検査することにより検出信号が出力され、検出信号に基づいて画像形成部220が眼底の断面像を形成する。前眼部カメラ300は被検眼Eの前眼部Eaを撮像して前眼部像を取得し、画像判定部232が前眼部像に基づいてOCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定する。
The operation and effect of the ophthalmologic apparatus 1 according to the embodiment described above will be described.
According to the ophthalmologic apparatus 1 of the present embodiment, the OCT unit 100 optically inspects the scanning region (inspection range) R of the fundus oculi Ef of the eye E, and outputs a detection signal, and forms an image based on the detection signal. The part 220 forms a cross-sectional image of the fundus. The anterior ocular segment camera 300 captures an anterior ocular segment image by capturing the anterior ocular segment Ea of the eye E to be inspected, and the image determining unit 232 allows the OCT unit 100 to inspect the scanning region R based on the anterior ocular segment image. Is determined.

OCTユニット100が走査領域Rを検査可能な状態でない場合とは、例えば、被検者が瞬き等を行ったためにOCTユニット100から検出信号が出力されない場合である。このような場合に、制御部210は、走査領域Rの検査を再度実行するようOCTユニット100を制御する。そのため、被検者が瞬き等を行って被検眼Eの眼底Efの走査領域Rを検査不能な状態となった場合であっても、所望の断面像を得ることができる。   The case where the OCT unit 100 is not in a state where the scanning region R can be inspected is, for example, a case where a detection signal is not output from the OCT unit 100 because the subject has blinked. In such a case, the control unit 210 controls the OCT unit 100 to execute the inspection of the scanning region R again. Therefore, even when the subject blinks or the like and the scanning region R of the fundus oculi Ef of the subject's eye E cannot be inspected, a desired cross-sectional image can be obtained.

本実施形態の眼科装置1において、制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域Rの全領域を再び光学的に検査するようにOCTユニット100を制御する。
本実施形態の眼科装置1によれば、走査領域Rを検査可能な状態でない場合に走査領域Rの全領域を再び光学的に検査するため、使用者による再検査の操作等を要することなく、連続的に検査した得た検出信号から眼底Efの断面像を取得することができる。
In the ophthalmologic apparatus 1 according to the present embodiment, when the image determination unit 232 determines that the scanning region R is not in a state in which the scanning region R can be inspected, the control unit 210 optically inspects the entire scanning region R again. The unit 100 is controlled.
According to the ophthalmologic apparatus 1 of the present embodiment, when the scanning area R is not in a state in which the scanning area R can be inspected, the entire area of the scanning area R is optically inspected again. A cross-sectional image of the fundus oculi Ef can be obtained from the detection signals obtained by continuously inspecting.

本実施形態の眼科装置1において、制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域RのうちOCTユニット100による検査が行われていない再検査範囲を検査するようにOCTユニット100を制御する。
本構成の眼科装置1によれば、走査領域Rを検査可能な状態でない場合にOCTユニット100による検査が行われていない領域のみを再検査するため、再検査に要する時間を少なくして早期に眼底Efの断面像を取得することができる。
In the ophthalmologic apparatus 1 of the present embodiment, when the image determination unit 232 determines that the scanning region R is not in a state in which the scanning region R can be inspected, the control unit 210 determines whether the scanning region R has not been inspected by the OCT unit 100. The OCT unit 100 is controlled so as to inspect the inspection range.
According to the ophthalmologic apparatus 1 of this configuration, when the scanning region R is not in a state where the inspection can be performed, only the region where the inspection by the OCT unit 100 has not been performed is re-examined. A cross-sectional image of the fundus oculi Ef can be obtained.

本実施形態の眼科装置1によれば、被検眼Eに対する検査用光学系が所定の位置関係を維持するために用いられる前眼部像を用いて、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定することができる。
本実施形態の眼科装置1によれば、2以上の前眼部カメラ300A,300Bの位置と2以上の前眼部像とに基づいて被検眼Eの3次元位置を算出し、被検眼Eに対する検査用光学系の所定の位置関係を維持するよう光学系駆動部2Aを制御することができる。
According to the ophthalmologic apparatus 1 of the present embodiment, the OCT unit 100 can inspect the scanning region R using the anterior ocular segment image used by the inspection optical system with respect to the eye E to maintain a predetermined positional relationship. It can be determined whether or not it is in the state.
According to the ophthalmologic apparatus 1 of the present embodiment, the three-dimensional position of the eye E to be examined is calculated based on the positions of the two or more anterior eye cameras 300A and 300B and the two or more anterior eye images. The optical system driving section 2A can be controlled to maintain a predetermined positional relationship of the inspection optical system.

〔第2実施形態〕
次に、本発明の第2実施形態に係る眼科装置について説明する。
本実施形態は、第1実施形態の変形例であり、以下で特に説明する場合を除き、第1実施形態と同様あるものとし、以下での説明を省略する。
[Second embodiment]
Next, an ophthalmologic apparatus according to a second embodiment of the present invention will be described.
This embodiment is a modification of the first embodiment, and is the same as the first embodiment, except for the case described below, and the description thereof is omitted.

第1実施形態の眼科装置1は、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを、瞳孔に相当する画像領域が特定できるかどうかにより判定するものであった。すなわち、第1実施形態の眼科装置1は、被検者が瞬き等を行って瞳孔に相当する画像領域が特定できない場合に、OCTユニット100が走査領域Rを検査不能であると判定するものであった。   The ophthalmologic apparatus 1 according to the first embodiment determines whether or not the OCT unit 100 can inspect the scanning region R based on whether or not an image region corresponding to a pupil can be specified. That is, the ophthalmologic apparatus 1 according to the first embodiment determines that the scanning region R cannot be inspected by the OCT unit 100 when the subject does not blink or the like and cannot specify an image region corresponding to the pupil. there were.

それに対して、本実施形態の眼科装置は、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを、瞳孔に相当する画像領域の位置に基づいて判定するものである。すなわち、本実施形態の眼が装置は、被検者が視線を正面から大きくずらして瞳孔に相当する画像領域が正面からずれる場合に、OCTユニット100が走査領域Rを検査不能であると判定するものである。   On the other hand, the ophthalmologic apparatus of the present embodiment determines whether or not the OCT unit 100 can inspect the scanning region R based on the position of the image region corresponding to the pupil. That is, the eye apparatus of the present embodiment determines that the scanning region R cannot be inspected by the OCT unit 100 when the subject shifts his / her gaze greatly from the front and the image area corresponding to the pupil deviates from the front. Things.

本実施形態の眼科装置が実行する処理は、第1実施形態の図6に示すステップS9の処理を除き、第1実施形態と同様である。以下では、第1実施形態の図6に示すステップS9の代わりに実行する処理について説明する。   The processing executed by the ophthalmologic apparatus of the present embodiment is the same as that of the first embodiment except for the processing of step S9 shown in FIG. 6 of the first embodiment. Hereinafter, a process executed in place of step S9 shown in FIG. 6 of the first embodiment will be described.

前眼部像の取得が完了すると、本実施形態の制御部210は、瞳孔に相当する画像領域を特定するよう画像処理部230の画像判定部232を制御する。画像判定部232の特徴位置特定部2312は、前眼部カメラ300が得た前眼部像から前眼部Eaの瞳孔輪郭を抽出し、瞳孔輪郭に囲まれる領域を瞳孔に相当する画像領域として特定する。   When the acquisition of the anterior eye image is completed, the control unit 210 of the present embodiment controls the image determination unit 232 of the image processing unit 230 so as to specify an image area corresponding to the pupil. The feature position specifying unit 2312 of the image determination unit 232 extracts the pupil contour of the anterior eye Ea from the anterior eye image obtained by the anterior eye camera 300, and sets a region surrounded by the pupil contour as an image region corresponding to the pupil. Identify.

制御部210は、特徴位置特定部2312が特定した画像領域の位置が、OCTユニット100が走査領域Rを検査可能な状態を示す検査可能範囲A1に含まれている場合にはステップS10に処理を進め、検査可能範囲A1に含まれていない場合にはステップS11に処理を進める。   If the position of the image area specified by the characteristic position specifying unit 2312 is included in the testable range A1 indicating that the scan area R can be inspected by the feature position specifying unit 2312, the control unit 210 proceeds to step S10. If it is not included in the testable range A1, the process proceeds to step S11.

特徴位置特定部2312が特定した画像領域の位置が検査可能範囲A1に含まれていない場合とは、例えば、被検者が視線を正面から大きくずらして瞳孔に相当する画像領域が正面からずれる場合である。この場合、画像判定部232は、特徴位置特定部2312が特定した画像領域の位置に基づいて、OCTユニット100が後述する走査領域(検査範囲)Rを検査可能な状態でないと判定し、ステップS11に処理を進める。   The case where the position of the image area specified by the characteristic position specifying unit 2312 is not included in the testable range A1 is, for example, the case where the subject shifts his / her gaze greatly from the front and the image area corresponding to the pupil deviates from the front. It is. In this case, the image determining unit 232 determines that the OCT unit 100 is not in a state where the scanning region (inspection range) R described later can be inspected based on the position of the image region identified by the characteristic position identifying unit 2312, and step S11. Processing proceeds to

ここで、検査可能範囲A1とは、OCT計測用の光路を通過する信号光LSを走査領域Rで走査した場合に信号光LSが被検眼Eの虹彩により遮断されない範囲をいう。図11及び図12は、前眼部カメラ300Bにより取得された前眼部像の一例を示す図である。符号2120aは、瞳孔輪郭に相当する画像領域として画像判定部232が特定した領域を示す。   Here, the testable range A1 refers to a range in which the signal light LS is not blocked by the iris of the eye E when the signal light LS passing through the optical path for OCT measurement is scanned in the scanning region R. 11 and 12 are diagrams illustrating an example of the anterior eye image acquired by the anterior eye camera 300B. Reference numeral 2120a indicates an area specified by the image determination unit 232 as an image area corresponding to a pupil contour.

制御部210は、図11に示すように、特徴位置特定部2312が特定した画像領域である第2の特徴領域2120aの全てが検査可能範囲A1に含まれている場合は、OCTユニット100が走査領域Rを検査可能な状態であると判定してステップS10に処理を進める。一方、制御部210は、図12に示すように、特徴位置特定部2312が特定した画像領域である第2の特徴領域2120aの一部が検査可能範囲A1に含まれていない場合は、OCTユニット100が走査領域Rを検査可能な状態であると判定してステップS10に処理を進める。   As shown in FIG. 11, when all of the second feature area 2120a, which is the image area specified by the feature position specifying unit 2312, is included in the testable range A1, the control unit 210 scans the OCT unit 100. It is determined that the region R can be inspected, and the process proceeds to step S10. On the other hand, as shown in FIG. 12, when a part of the second feature area 2120a, which is the image area specified by the feature position specifying unit 2312, is not included in the testable range A1, as shown in FIG. 100 determines that the scanning region R can be inspected, and proceeds to step S10.

例えば、被検者が視線を正面から大きくずらしてしまうと、特徴位置特定部2312により特定された瞳孔に相当する画像領域の位置が正面から大きくずれてしまう。本実施形態の眼科装置によれば、瞳孔に相当する画像領域の位置が正面から大きくずれてしまう場合であっても、走査領域Rの検査を再度実行して所望の断面像を得ることができる。   For example, if the subject shifts his / her gaze greatly from the front, the position of the image area corresponding to the pupil specified by the characteristic position specifying unit 2312 will be significantly shifted from the front. According to the ophthalmologic apparatus of the present embodiment, even when the position of the image region corresponding to the pupil deviates significantly from the front, the inspection of the scanning region R can be performed again to obtain a desired cross-sectional image. .

〔第3実施形態〕
次に、本発明の第3実施形態に係る眼科装置について説明する。
本実施形態は、第1実施形態および第2実施形態の変形例であり、以下で特に説明する場合を除き、第1実施形態および第2実施形態と同様あるものとし、以下での説明を省略する。
[Third embodiment]
Next, an ophthalmologic apparatus according to a third embodiment of the present invention will be described.
This embodiment is a modification of the first embodiment and the second embodiment, and is the same as the first embodiment and the second embodiment except for the case described below, and the description thereof is omitted. I do.

本実施形態は、被検眼Eの前眼部Eaの前眼部像を取得する前眼部カメラ300Aおよび前眼部カメラ300Bが前眼部像を取得するタイミングを適切に調整する処理に関する。第1実施形態では、図6のステップS8において、前眼部カメラ300Aおよび300Bの少なくとも一方が前眼部像を取得する。本実施形態では、前眼部カメラ300Aおよび300Bの双方が、前眼部像を取得する。   The present embodiment relates to a process of appropriately adjusting the timing at which the anterior eye camera 300A and the anterior eye camera 300B that acquire the anterior eye image of the anterior eye part Ea of the eye E to be inspected acquire the anterior eye image. In the first embodiment, at step S8 in FIG. 6, at least one of the anterior eye cameras 300A and 300B acquires an anterior eye image. In the present embodiment, both the anterior eye cameras 300A and 300B acquire an anterior eye image.

本実施形態の眼科装置は、図6のステップS2のオートアライメントにおいて、2つの前眼部カメラ300Aおよび300Bにより取得される被検眼Eの2つの前眼部像を用いて処理を行っている。制御部210は、オートアライメントを実行する際に、前眼部カメラ300Aおよび300Bの垂直同期信号が同じタイミングで出力されるように制御する。   The ophthalmologic apparatus of the present embodiment performs the process using the two anterior eye images of the eye E to be acquired acquired by the two anterior eye cameras 300A and 300B in the auto alignment in step S2 in FIG. The control unit 210 controls the vertical synchronizing signals of the anterior eye cameras 300A and 300B to be output at the same timing when performing the auto alignment.

図13に示すように、制御部210は、時刻T1,T3,T5,T7,T9,T11のタイミングで、前眼部カメラ300Aおよび300Bの垂直同期信号を出力する。前眼部カメラ300Aおよび300Bのそれぞれにおいて、垂直同期信号の出力間隔は、一定の第1フレームレートFr1となっている。   As shown in FIG. 13, the control unit 210 outputs the vertical synchronization signals of the anterior eye cameras 300A and 300B at times T1, T3, T5, T7, T9, and T11. In each of the anterior eye cameras 300A and 300B, the output interval of the vertical synchronization signal is a constant first frame rate Fr1.

ステップS2で実行するオートアライメントは、2つの前眼部カメラ300Aおよび300Bにより取得される被検眼Eの2つの前眼部像から検査用光学系の移動方向および移動距離を求めるものである。そのため、オートアライメントのために用いる2つの前眼部像は、同じタイミングで取得する必要がある。そこで、図6のステップS2のオートアライメントにおいて、制御部210は、前眼部カメラ300Aおよび300Bの垂直同期信号が同じタイミングで出力されるように制御し、前眼部カメラ300Aおよび300Bの撮像タイミングを一致させている。   The automatic alignment executed in step S2 is for obtaining the moving direction and the moving distance of the inspection optical system from the two anterior eye images of the eye E to be acquired acquired by the two anterior eye cameras 300A and 300B. Therefore, it is necessary to acquire two anterior eye images used for auto alignment at the same timing. Therefore, in the auto alignment in step S2 in FIG. 6, the control unit 210 controls the vertical synchronization signals of the anterior eye cameras 300A and 300B to be output at the same timing, and controls the imaging timing of the anterior eye cameras 300A and 300B. Are matched.

本実施形態の眼科装置は、図6のステップS7で開始されるOCT計測において、2つの前眼部カメラ300Aおよび300Bにより取得される被検眼Eの2つの前眼部像を用いて処理を行っている。制御部210は、OCT計測を開始した後は前眼部カメラ300Aおよび300Bの垂直同期信号が異なるタイミングで出力されるように制御し、前眼部カメラ300Aおよび300Bの撮像タイミングを異ならせている。   The ophthalmologic apparatus of the present embodiment performs processing using two anterior eye images of the eye E to be inspected acquired by the two anterior eye cameras 300A and 300B in the OCT measurement started in step S7 in FIG. ing. After starting the OCT measurement, the control unit 210 controls the vertical synchronization signals of the anterior eye cameras 300A and 300B to be output at different timings, and makes the imaging timings of the anterior eye cameras 300A and 300B different. .

図14に示すように、制御部210は、時刻T1,T3,T5,T7,T9,T11のタイミングで、前眼部カメラ300Aの垂直同期信号を出力する。また、制御部210は、時刻T2,T4,T6,T8,T10,T12のタイミングで、前眼部カメラ300Bの垂直同期信号を出力する。前眼部カメラ300Aおよび300Bのそれぞれにおいて、垂直同期信号の出力間隔は、一定の第1フレームレートFr1となっている。そのため、前眼部カメラ300Aおよび300Bは、それぞれ同一の第1フレームレートFr1で前眼部像を連続的に撮像する。   As shown in FIG. 14, the control unit 210 outputs a vertical synchronization signal of the anterior eye camera 300A at times T1, T3, T5, T7, T9, and T11. Further, the control unit 210 outputs a vertical synchronization signal of the anterior eye camera 300B at timings of times T2, T4, T6, T8, T10, and T12. In each of the anterior eye cameras 300A and 300B, the output interval of the vertical synchronization signal is a constant first frame rate Fr1. Therefore, the anterior ocular segment cameras 300A and 300B continuously capture anterior ocular segment images at the same first frame rate Fr1.

図14に示すように、前眼部カメラ300Aの垂直同期信号を出力するタイミングと、前眼部カメラ300Bの垂直同期信号を出力するタイミングは、第2フレームレートFr2だけずれている。そのため、前眼部カメラ300A及び前眼部カメラ300Bを1つの撮像部としてみた場合、この撮像部のフレームレートは第2フレームレートFr2となる第2フレームレートFr2は、第1フレームレートFr1の半分の間隔である。   As shown in FIG. 14, the timing of outputting the vertical synchronization signal of the anterior eye camera 300A and the timing of outputting the vertical synchronization signal of the anterior eye camera 300B are shifted by the second frame rate Fr2. Therefore, when the anterior eye camera 300A and the anterior eye camera 300B are viewed as one imaging unit, the frame rate of the imaging unit is the second frame rate Fr2, and the second frame rate Fr2 is half of the first frame rate Fr1. Is the interval.

OCT計測の実行中に、制御部210は、前眼部カメラ300Aおよび前眼部カメラ300Bにより前眼部像を取得し、瞳孔に相当する画像領域を特定している。ステップS8で前眼部像を取得する時間間隔が短い(フレームレートが高い)ほど、OCT計測不可の走査点を確実に記憶することができる。   During the execution of the OCT measurement, the control unit 210 acquires an anterior eye image using the anterior eye camera 300A and the anterior eye camera 300B, and specifies an image region corresponding to a pupil. The shorter the time interval for acquiring the anterior eye image in step S8 (the higher the frame rate), the more reliably the scan points where OCT measurement is impossible can be stored.

そのため、制御部210は、OCT計測を開始した後(ステップS7の後)、前眼部カメラ300Aの垂直同期信号を出力するタイミング(撮像タイミング)と、前眼部カメラ300Bの垂直同期信号を出力するタイミング(撮像タイミング)を第2フレームレートFr2だけずらすように制御している。これにより、前眼部像のみかけ上の取得間隔が第1フレームレートFr1の半分の第2フレームレートFr2となり、OCT計測不可の走査点を確実に記憶することができる。   For this reason, after starting the OCT measurement (after step S7), the control unit 210 outputs a vertical synchronization signal of the anterior eye camera 300A (imaging timing) and outputs a vertical synchronization signal of the anterior eye camera 300B. The timing (imaging timing) is shifted by the second frame rate Fr2. As a result, the apparent acquisition interval of the anterior ocular segment image becomes the second frame rate Fr2 which is half of the first frame rate Fr1, and the scanning points where OCT measurement cannot be performed can be reliably stored.

本実施形態の眼科装置によれば、被検眼Eの3次元位置を算出して被検眼Eに対する検査用光学系の所定の位置関係を維持するオートアライメントを実行する場合には、前眼部カメラ300Aおよび前眼部カメラ300Bの撮像タイミングを一致させて被検眼Eの3次元位置を精度よく算出することができる。   According to the ophthalmologic apparatus of the present embodiment, when calculating the three-dimensional position of the eye E to be inspected and performing auto-alignment to maintain a predetermined positional relationship of the inspection optical system with respect to the eye E, the anterior ocular camera The three-dimensional position of the eye E can be calculated with high accuracy by matching the imaging timings of the anterior eye camera 300B with the imaging timing of the eye 300A.

一方、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定する場合には、前眼部カメラ300Aおよび前眼部カメラ300Bの撮像タイミングを異ならせることで、前眼部カメラ300の撮像間隔(フレームレート)を短くすることができる。前眼部カメラ300の撮像間隔が短くなると、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定する間隔が短くなり、判定の精度が向上する。   On the other hand, when the OCT unit 100 determines whether or not the scanning region R can be inspected, the imaging timings of the anterior eye camera 300A and the anterior eye camera 300B are made different, so that the anterior eye camera 300 Can shorten the imaging interval (frame rate). When the imaging interval of the anterior eye camera 300 is reduced, the interval at which the OCT unit 100 determines whether the scanning region R can be inspected is reduced, and the accuracy of the determination is improved.

なお、本実施形態では、前眼部カメラ300A及び前眼部カメラ300Bの2つのカメラについて説明したが、2以上の複数の前眼部カメラを用いるようにしてもよい。2以上の複数の前眼部カメラを用いる場合、オートアライメントを実行する際には、すべての前眼部カメラの撮像タイミングを一致させる。一方、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定する際には、複数の前眼部カメラの撮像タイミングを異ならせる。   In the present embodiment, two cameras, the anterior eye camera 300A and the anterior eye camera 300B, have been described, but two or more anterior eye cameras may be used. When two or more anterior eye cameras are used, when performing auto alignment, the imaging timings of all anterior eye cameras are matched. On the other hand, when the OCT unit 100 determines whether or not the scanning area R can be inspected, the imaging timings of the plurality of anterior eye cameras are made different.

以上、本発明の実施形態について説明した。しかし、本発明は、上記実施形態に限定されず、特許請求の範囲を逸脱しない範囲で種々の変更を行うことができる。上記実施形態の構成は、その一部を省略したり、上記とは異なるように任意に組み合わせたりすることができる。   The embodiment of the invention has been described. However, the present invention is not limited to the above embodiment, and various changes can be made without departing from the scope of the claims. The configuration of the above embodiment can be partially omitted or arbitrarily combined so as to be different from the above.

上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD−ROM/DVD−RAM/DVD−ROM/MO等)、磁気記憶媒体(ハードディスク等)などを用いることが可能である。   A computer program for implementing the above-described embodiment can be stored in any computer-readable recording medium. As the recording medium, for example, a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk, etc.) can be used.

1・・・眼科装置、 2・・・眼底カメラユニット、 100・・・OCTユニット、 200・・・演算制御ユニット、 210・・・制御部、 212・・・記憶部、 220・・・画像形成部、 230・・・画像処理部、 231・・・解析部、 232・・・画像判定部、 233・・・画像合成部、 241・・・表示部、 300,300A,300B・・・前眼部カメラ、 2312・・・特徴位置特定部、 2313・・・3次元位置算出部、 A1・・・検査可能範囲、 Ea・・・前眼部、 Ef・・・眼底、 LC・・・干渉光、 LR・・・参照光、 LS・・・信号光   DESCRIPTION OF SYMBOLS 1 ... Ophthalmic apparatus, 2 ... Fundus camera unit, 100 ... OCT unit, 200 ... Operation control unit, 210 ... Control part, 212 ... Storage part, 220 ... Image formation Unit 230 image processing unit 231 analysis unit 232 image determination unit 233 image synthesis unit 241 display unit 300 300 A, 300 B anterior eye Camera, 2312: feature position specifying unit, 2313: three-dimensional position calculating unit, A1: testable range, Ea: anterior eye, Ef: fundus, LC: interference light , LR: Reference light, LS: Signal light

Claims (11)

被検眼を光学的に検査する眼科装置であって、
前記被検眼の眼底の検査範囲を光学的に検査して検出信号を出力する検査用光学系を含む検査部と、
前記検査部が検出する前記検出信号に基づいて前記眼底の断面像を形成する画像形成部と、
前記被検眼の前眼部を撮像して前眼部像を取得する撮像部と、
前記眼科装置を制御する制御部と、
前記撮像部が撮像した前記前眼部像に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定する判定部と、を備え、
前記制御部は、前記検査部が前記検査範囲を検査可能な状態でないと前記判定部が判定した場合に、前記検査範囲の検査を再度実行するよう前記検査部を制御することを特徴とする眼科装置。
An ophthalmic apparatus that optically inspects an eye to be examined,
An inspection unit including an inspection optical system that optically inspects the inspection range of the fundus of the eye to be inspected and outputs a detection signal;
An image forming unit that forms a cross-sectional image of the fundus based on the detection signal detected by the inspection unit,
An imaging unit that images the anterior segment of the subject's eye and acquires an anterior segment image;
A control unit for controlling the ophthalmic apparatus,
Based on the anterior ocular segment image captured by the imaging unit, a determination unit that determines whether the inspection unit is in a state where the inspection range can be inspected,
The control unit controls the inspection unit to execute the inspection of the inspection range again when the determination unit determines that the inspection unit is not in a state where the inspection range can be inspected. apparatus.
前記撮像部が撮像した前記前眼部像に基づいて、前記被検眼の瞳孔に相当する画像領域を特定する特定部を備え、
前記判定部は、前記特定部の特定結果に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定することを特徴とする請求項1に記載の眼科装置。
Based on the anterior segment image captured by the imaging unit, comprising a specification unit that specifies an image region corresponding to the pupil of the eye to be inspected,
2. The ophthalmologic apparatus according to claim 1, wherein the determination unit determines whether the inspection unit is in a state where the inspection range can be inspected, based on a result of the identification performed by the identification unit. 3.
前記判定部は、前記特定部により前記画像領域が特定されない場合に、前記検査部が前記検査範囲を検査可能な状態でないと判定することを特徴とする請求項2に記載の眼科装置。   The ophthalmologic apparatus according to claim 2, wherein the determination unit determines that the inspection unit is not in a state where the inspection range can be inspected when the image area is not identified by the identification unit. 前記判定部は、前記特定部により特定された前記画像領域の位置に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定することを特徴とする請求項2に記載の眼科装置。   The apparatus according to claim 2, wherein the determination unit determines whether the inspection unit is in a state where the inspection range can be inspected based on a position of the image area specified by the specifying unit. Ophthalmic equipment. 前記制御部は、前記検査範囲を検査可能な状態でないと前記判定部が判定した場合に、前記検査範囲の全領域を再び光学的に検査するように前記検査部を制御することを特徴とする請求項1から請求項4のいずれか一項に記載の眼科装置。   The control unit controls the inspection unit to optically inspect the entire area of the inspection range again when the determination unit determines that the inspection range is not in an inspectable state. The ophthalmic apparatus according to any one of claims 1 to 4. 前記制御部は、前記検査範囲を検査可能な状態でないと前記判定部が判定した場合に、前記検査範囲のうち前記検査部による検査が行われていない再検査範囲を検査するように前記検査部を制御することを特徴とする請求項1から請求項4のいずれか一項に記載の眼科装置。   The control unit is configured to, when the determination unit determines that the inspection range is not in an inspectable state, inspect the reinspection range in which the inspection by the inspection unit is not performed in the inspection range. The ophthalmologic apparatus according to claim 1, wherein the ophthalmologic apparatus is controlled. 前記検査部は、光源からの光を信号光と参照光とに分割して前記信号光で前記被検眼の前記眼底を走査し、前記眼底を経由した前記信号光と前記参照光とを干渉させた干渉光に応じた前記検出信号を検出することを特徴とする請求項1から請求項6のいずれか一項に記載の眼科装置。   The inspection unit scans the fundus of the eye to be inspected with the signal light by dividing light from a light source into signal light and reference light, and causes the signal light and the reference light that have passed through the fundus to interfere with each other. The ophthalmologic apparatus according to any one of claims 1 to 6, wherein the detection signal is detected according to the interference light. 前記撮像部が撮像した前記前眼部像に基づいて前記被検眼と前記検査用光学系との間の変位を算出する算出部と、
前記検査用光学系を移動する移動機構と、を備え、
前記制御部は、前記算出部が算出した前記変位に応じて、前記被検眼に対する前記検査用光学系が所定の位置関係を維持するように前記移動機構を制御することを特徴とする請求項1から請求項7のいずれか一項に記載の眼科装置。
A calculation unit that calculates a displacement between the subject's eye and the inspection optical system based on the anterior eye image captured by the imaging unit,
A moving mechanism for moving the inspection optical system,
The control unit controls the moving mechanism according to the displacement calculated by the calculation unit such that the inspection optical system maintains a predetermined positional relationship with respect to the eye to be inspected. The ophthalmic apparatus according to any one of claims 1 to 7.
前記撮像部は、異なる2以上の方向から前記被検眼の前記前眼部を撮像して2以上の前記前眼部像を取得する2以上の前眼部カメラを有し、
前記算出部は、2以上の前記前眼部カメラの位置と前記2以上の前眼部像とに基づいて、前記被検眼の3次元位置を算出することを特徴とする請求項8に記載の眼科装置。
The imaging unit has two or more anterior eye cameras that capture the anterior eye part of the eye to be inspected from two or more different directions to obtain two or more anterior eye images,
The said calculation part calculates the three-dimensional position of the said to-be-examined eye based on the position of two or more said anterior segment cameras, and the two or more anterior segment images. Ophthalmic equipment.
2以上の前記前眼部カメラは、それぞれ同一のフレームレートで複数の前記前眼部像を連続的に撮像し、
前記制御部は、前記算出部が前記被検眼の3次元位置を算出する場合は2以上の前記前眼部カメラの撮像タイミングを一致させ、前記検査部が前記検査範囲を検査可能な状態であるかどうかを前記判定部が判定する場合は2以上の前記前眼部カメラの撮像タイミングを異ならせるよう前記撮像部を制御することを特徴とする請求項9に記載の眼科装置。
The two or more anterior segment cameras continuously capture a plurality of the anterior segment images at the same frame rate,
When the calculation unit calculates the three-dimensional position of the eye to be inspected, the control unit matches the imaging timings of the two or more anterior eye cameras, so that the inspection unit can inspect the inspection range. The ophthalmologic apparatus according to claim 9, wherein when the determination unit determines whether or not the imaging unit determines the imaging timing of two or more anterior eye cameras, the imaging unit controls the imaging unit.
被検眼を光学的に検査する眼科装置の制御方法であって、
前記眼科装置は、前記被検眼の眼底の検査範囲を光学的に検査して検出信号を出力する検査部を有し、
前記被検眼の前眼部を撮像して前眼部像を取得する撮像工程と、
前記撮像工程が撮像した前記前眼部像に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定する判定工程と、
前記検査部が前記検査範囲を検査可能な状態でないと前記判定工程が判定した場合に、前記検査範囲の検査を再度実行するよう前記検査部を制御する制御工程と、
前記検査部が検出する前記検出信号に基づいて前記眼底の断面像を形成する画像形成工程と、を備えることを特徴とする眼科装置の制御方法。
A method for controlling an ophthalmic apparatus that optically inspects an eye to be examined,
The ophthalmologic apparatus includes an inspection unit that optically inspects an inspection range of a fundus of the eye to be inspected and outputs a detection signal,
An imaging step of imaging the anterior segment of the subject's eye to obtain an anterior segment image;
Based on the anterior segment image captured by the imaging step, a determination step of determining whether the inspection unit is in a state where the inspection range can be inspected,
A control step of controlling the inspection unit to execute the inspection of the inspection range again when the determination unit determines that the inspection unit is not in a state where the inspection range can be inspected;
An image forming step of forming a sectional image of the fundus oculi based on the detection signal detected by the inspection unit.
JP2018178923A 2018-09-25 2018-09-25 Ophthalmic device and control method for the ophthalmic device Active JP7231366B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018178923A JP7231366B2 (en) 2018-09-25 2018-09-25 Ophthalmic device and control method for the ophthalmic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018178923A JP7231366B2 (en) 2018-09-25 2018-09-25 Ophthalmic device and control method for the ophthalmic device

Publications (2)

Publication Number Publication Date
JP2020048688A true JP2020048688A (en) 2020-04-02
JP7231366B2 JP7231366B2 (en) 2023-03-01

Family

ID=69994405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018178923A Active JP7231366B2 (en) 2018-09-25 2018-09-25 Ophthalmic device and control method for the ophthalmic device

Country Status (1)

Country Link
JP (1) JP7231366B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010110391A (en) * 2008-11-05 2010-05-20 Nidek Co Ltd Ophthalmological imaging apparatus
JP2011092291A (en) * 2009-10-27 2011-05-12 Topcon Corp Ophthalmic observation apparatus
JP2014113385A (en) * 2012-12-11 2014-06-26 Topcon Corp Ophthalmologic apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010110391A (en) * 2008-11-05 2010-05-20 Nidek Co Ltd Ophthalmological imaging apparatus
JP2011092291A (en) * 2009-10-27 2011-05-12 Topcon Corp Ophthalmic observation apparatus
JP2014113385A (en) * 2012-12-11 2014-06-26 Topcon Corp Ophthalmologic apparatus

Also Published As

Publication number Publication date
JP7231366B2 (en) 2023-03-01

Similar Documents

Publication Publication Date Title
JP5061380B2 (en) Fundus observation apparatus, ophthalmologic image display apparatus, and program
JP6009935B2 (en) Ophthalmic equipment
US9706920B2 (en) Ophthalmologic apparatus
JP6412707B2 (en) Ophthalmic equipment
WO2013164943A1 (en) Ophthalmic apparatus
WO2016027589A1 (en) Ophthalmological imaging device and control method therefor
JP2019147043A (en) Ophthalmologic apparatus
JP6566541B2 (en) Ophthalmic equipment
US10080496B2 (en) Ophthalmological device
US9848767B2 (en) Ophthalmological apparatus
JP6624641B2 (en) Ophthalmic equipment
JP2014073207A (en) Ophthalmologic imaging device
JP2018198967A (en) Ophthalmologic device
JP6633468B2 (en) Blood flow measurement device
JP6407631B2 (en) Ophthalmic equipment
JP7181135B2 (en) ophthalmic equipment
JP6809926B2 (en) Ophthalmic equipment
JP6779674B2 (en) OCT device
JP7231366B2 (en) Ophthalmic device and control method for the ophthalmic device
JP6756873B2 (en) Ophthalmologic imaging equipment
JP2018051340A (en) Ophthalmologic apparatus
JP2019130046A (en) Ophthalmologic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230216

R150 Certificate of patent or registration of utility model

Ref document number: 7231366

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150