WO2008062527A1 - Dispositif de photographie de fond d'œil - Google Patents

Dispositif de photographie de fond d'œil Download PDF

Info

Publication number
WO2008062527A1
WO2008062527A1 PCT/JP2006/323412 JP2006323412W WO2008062527A1 WO 2008062527 A1 WO2008062527 A1 WO 2008062527A1 JP 2006323412 W JP2006323412 W JP 2006323412W WO 2008062527 A1 WO2008062527 A1 WO 2008062527A1
Authority
WO
WIPO (PCT)
Prior art keywords
fundus
alignment
eye
photographing
focus
Prior art date
Application number
PCT/JP2006/323412
Other languages
English (en)
French (fr)
Inventor
Cesario Lia
Marco Viola
Tokio Ueno
Original Assignee
Nidek Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co., Ltd. filed Critical Nidek Co., Ltd.
Priority to EP06833216.2A priority Critical patent/EP2090224B1/en
Priority to JP2008545285A priority patent/JP5117396B2/ja
Priority to PCT/JP2006/323412 priority patent/WO2008062527A1/ja
Publication of WO2008062527A1 publication Critical patent/WO2008062527A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning

Definitions

  • the present invention relates to a fundus imaging apparatus that images the fundus of a subject's eye.
  • a fundus camera in which an operator drives an apparatus to perform alignment and focusing on a subject's eye to photograph the fundus (see, for example, Patent Document 1). ).
  • alignment indices and focus indices are projected onto the eye to be examined, the operator adjusts the position while confirming this, and then performs fundus photography.
  • Patent Document 1 Japanese Patent Laid-Open No. 11 4808
  • the present invention is characterized by having the following configuration.
  • a fundus photographing apparatus having a fundus photographing optical system for photographing the fundus of a subject's eye has alignment light sources arranged symmetrically with respect to the photographing optical axis.
  • the alignment index projection means for projecting a pair of alignment indices, the anterior eye image for photographing the anterior segment of the eye on which the alignment index is projected by the alignment index projection means, and the anterior eye photographing means
  • a pupil center detecting means for obtaining the pupil center of the eye to be examined by image processing, and an intermediate position of the pair of alignment indices photographed by the anterior eye photographing means and an interval between the alignment indices
  • Alignment index detecting means for determining the center of the detected pupil center and the pair of alignment indices
  • the alignment information in the vertical and horizontal directions of the apparatus relative to the eye to be examined from the position, and the alignment force between the alignment indices
  • the alignment information acquisition means for obtaining the alignment information in the longitudinal direction between the eye to be examined and the apparatus, and the alignment Based on alignment information obtained by acquisition means
  • the alignment index is a rectangular index extending in a direction perpendicular to the eye to be examined.
  • the fundus imaging apparatus includes an illumination light irradiation optical system for irradiating the fundus of the eye to be examined with infrared light irradiation, and the fundus illuminated by the illumination light irradiation optical system. Based on the luminance information at a predetermined position of the fundus image obtained by photographing using the photographing optical system, the focus information obtaining means for obtaining the focus information by V, and the focus information obtained by the focus information obtaining means And a focus adjusting means for moving the focusing lens of the fundus photographing optical system in the optical axis direction to adjust the focus of the apparatus.
  • the illumination light irradiation optical system includes a focus chart placed at a position in the irradiation light path of the infrared light and conjugate with the fundus of the eye to be examined.
  • the focus information acquisition unit obtains the focus information based on luminance information of a focus index projected onto a fundus image by the focus chart.
  • the focus chart is movable in the front-rear direction along the optical axis in conjunction with the focusing lens.
  • the illumination light irradiation optical system includes an optical system for irradiating visible light toward the fundus of the eye to be examined, and the focus chart emits the visible light.
  • the present invention is characterized in that it has a configuration in which it is transmitted through the entire area of the focus chart, the infrared light is shielded in a region for forming a focus index, and transmitted in other regions.
  • FIG. 1 is a diagram showing a schematic configuration of a fundus imaging apparatus in the present embodiment.
  • FIG. 2 is a diagram showing an optical system of a fundus imaging apparatus in the present embodiment.
  • FIG. 3 is a diagram showing a configuration of a focus chart.
  • FIG. 4 is a diagram showing an anterior segment image in which an alignment index is formed.
  • FIG. 5A is a diagram for explaining focus adjustment of the fundus imaging apparatus in the present embodiment.
  • FIG. 5B is a diagram for explaining focus adjustment of the fundus imaging apparatus in the present embodiment.
  • FIG. 6 A flow chart for analyzing the presence or absence of diabetic retinopathy using the Yural network.
  • FIG. 7 is a schematic diagram showing a fundus image of a patient's eye developing diabetic retinopathy.
  • FIG. 8 is a diagram showing luminance distribution information of the entire fundus image after removing blood vessels and optic discs.
  • FIG. 9 is a diagram showing a state in which the fundus image is divided into local luminance distribution information. Explanation of symbols
  • FIG. 1 is a schematic diagram showing a schematic configuration of the fundus imaging apparatus of the present embodiment.
  • the fundus imaging device 1 is a control circuit with a CPU Road control unit 2, Monitor 3 for displaying various information, Instruction input unit 4 for making various settings, Storage unit 5 for storing fundus images, etc.
  • Image analysis unit 6 to analyze using network technology, output unit 7 to output analysis results, imaging unit 100 with optical system for imaging fundus of eye E, imaging unit 100 to eye E Equipped with a drive unit 101 for driving in the front-rear, up-down, left-right direction (XYZ direction).
  • Reference numeral 8 denotes a photographing window, and the fundus of the subject eye E is photographed by the photographing unit 100 inside the apparatus 1 by positioning the subject eye E in the photographing window 8.
  • Monitor 3, instruction input unit 4, storage unit 5, image analysis unit 6, output unit 7, photographing unit 100 (light source, light receiving element, etc.), drive unit 101 is electrically connected to control unit 2 and connected to control unit The drive is controlled by the command signal from 2.
  • FIG. 2 is a diagram illustrating a configuration of an optical system included in the photographing unit 100.
  • the optical system for illuminating the eye to be examined includes a light source 10 that emits infrared light for fundus illumination, a light source 11 that emits flash light in the visible range for photographing the fundus, and a visible light that reflects infrared light. It consists of a dichroic mirror 12 that transmits light, a collimator lens 13, a focus chart 14, a condenser lens 15, a ring slit 16 having a ring-shaped opening, a mirror 17, a relay lens 18, and a half mirror 19.
  • the light source 10 and the light source 11 have a conjugate relationship with the pupil of the eye E to be examined.
  • the light source 11 can be used as long as it emits visible light. In the present embodiment, the light source 11 emits green monochromatic light to further enhance the blood vessel image among the fundus images to be photographed. Use the
  • a ring-shaped chart 14b having a predetermined size is formed on a filter 14a that transmits visible light and infrared light.
  • This chart 14b is formed by a coating process that transmits visible light but does not transmit infrared light.
  • the focus chart 14 is moved along the optical axis together with a focusing lens 23 described later by the driving means 102, and forms a ring image on the fundus of the eye E as an index at the time of focus.
  • the ring slit 16 is placed at a position conjugate with the pupil of the eye E through the relay lens 18.
  • the infrared light emitted from the light source 10 is reflected by the dichroic mirror 12 and then collimated.
  • the focus chart 14 is also illuminated through the data lens 13.
  • the infrared light that has passed through the focus chart 14 illuminates the ring slit 16 through the condenser lens 15.
  • Infrared light that has passed through the ring slit 16 is reflected by the mirror 17, reflected by the half mirror 19 via the relay lens 18, and then formed at the pupil of the eye E to be examined and focused on the fundus.
  • the fundus is illuminated while forming a ring image that serves as an index of the eye.
  • visible light in this embodiment, green monochromatic light
  • visible light emitted from the light source 11 passes through the dichroic mirror 12 and then travels in the same optical path as the infrared light from the light source 10 described above, so that the eye to be examined Illuminate E fundus. Since the chart 14b formed on the focus chart 14 transmits visible light, the visible light emitted from the light source 11 uniformly illuminates the fundus without forming a ring image on the fundus of the eye E. To do.
  • the optical system for photographing the fundus of the eye E has a half mirror 19, an object lens 20, a dichroic mirror 21, an aperture 22, a focusing lens 23, an imaging lens, and a half mirror from the eye E side. 25 and 2D light receiving element 26.
  • the two-dimensional light receiving element 26 has a conjugate relationship with the fundus of the eye E to be examined.
  • the diaphragm 22 is disposed at a position conjugate with the pupil of the eye E through the objective lens 20.
  • the focusing lens 23 is moved along the optical axis together with the focus chart by the driving means 102.
  • the reflected light of the fundus force of the illumination light from the light source 10 or 11 passes through the half mirror 19 and the objective lens 20 and forms an image, and then the dichroic mirror 21, aperture 22, focusing lens 23, imaging lens 24, The light is received by the two-dimensional light receiving element 26 through the half mirror 25.
  • Reference numerals 32a and 32b denote light sources for projecting alignment indices for detection in the up / down / left / right and front / rear directions from the front of the eye E and for illuminating the anterior eye portion of the eye E.
  • the light sources 32a and 32b are a pair of rectangular LEDs arranged symmetrically with respect to the photographing optical axis L1, and emit infrared light having a wavelength different from that of the light source 10 described above.
  • the light sources 32a, 32b project a finite index (a rectangular index extending in a direction perpendicular to the eye to be examined) by a divergent light beam at a predetermined projection angle toward the cornea of the eye E to be examined, and an anterior eye portion Illuminate the whole.
  • a finite index a rectangular index extending in a direction perpendicular to the eye to be examined
  • the optical system for photographing the anterior segment of the eye E has a half mirror 19, an objective lens 20, a dichroic mirror 21 shared with an optical system for fundus photographing, and a dichroic mirror 2 1 Field lens 28, mirror 29, imaging lens 30, secondary, arranged in the reflection direction by It consists of the original light receiving element 31.
  • the two-dimensional light receiving element 31 has a conjugate relationship with the pupil of the eye E to be examined.
  • the dichroic mirror 21 has a characteristic of transmitting visible light and infrared light from the light source 10 and reflecting infrared light emitted from the light sources 32a and 32b.
  • FIG. 27 is a fixation lamp that emits visible light placed in the reflection direction of the half mirror 25.
  • the subject's face is brought close to the apparatus, and the eye (examinee E) to be imaged is positioned on the imaging window 8 shown in FIG. .
  • the control unit 2 turns on one of the nine fixation lamps 27 (in this case, the central fixation lamp located on the optical axis) to fixate.
  • the control unit 2 turns on the light sources 32a and 32b, causes the two-dimensional light receiving element 31 to receive the anterior eye image of the eye E, and based on the light reception result, the device (imaging unit 100) and the eye E to be inspected. Align (alignment).
  • FIG. 4 is a schematic diagram showing an anterior segment image received by the two-dimensional light receiving element 31.
  • the anterior segment of the eye E is illuminated, and rectangular alignment indexes 33L and 33R as shown are projected onto the cornea of the eye E.
  • the control unit 2 specifies the pupil P by anterior eye image power image processing received by the two-dimensional light receiving element 31 and obtains the center P of the specified pupil P. In addition, the control unit 2 performs an anterior segment by image processing.
  • the alignment state of the imaging unit 100 in the up / down / left / right direction with respect to the eye E is detected by detecting the positional relationship between the obtained center P and the intermediate position M, and the alignment in the front / rear direction
  • the alignment state is detected by comparing the image intervals of the alignment indicators 33L and 33R. Further, since the alignment indices 33L and 33R are projections of a finite distance index, the image interval changes with a change in the front-rear direction between the eye E and the imaging unit 100. Real In the embodiment, an interval between alignment indexes corresponding to an appropriate alignment distance in the front-rear direction between the eye E and the imaging unit 100 is obtained in advance as a predetermined value and stored in the storage unit 5.
  • control unit 2 is based on the intermediate position M obtained from the index image (alignment index) formed by the light sources 32a and 32b and the center P obtained from the pupil center obtained from the anterior eye image power.
  • control unit 2 drives the drive unit 101 so that the interval between the alignment indices 33L and 33R becomes a predetermined interval (predetermined value), and moves the entire imaging unit 100 in the front-rear direction with respect to the eye to be examined. Make the alignment. When each alignment state falls within a predetermined allowable range, the control unit determines alignment completion.
  • the control unit 2 turns off the light sources 32a and 32b, turns on the light source 10 for fundus illumination, irradiates the fundus of the eye E with infrared light, and receives the reflected light two-dimensionally.
  • Light is received by element 26 and a fundus image is obtained.
  • FIG. 5A is a schematic view showing a fundus image received by the two-dimensional light receiving element 26. 200 is an index projected onto the fundus by the focus chart 14.
  • the control unit 2 sets a line 210 that passes through the index 200, and the luminance information power on the set line 210 also indicates luminance information corresponding to the index 200.
  • FIG. 5B is a schematic diagram showing luminance information 220 on the set line 210.
  • the vertical axis indicates the luminance value
  • the horizontal axis indicates the position
  • 200 ′ indicates the luminance information corresponding to the index 200.
  • luminance information corresponding to other parts such as blood vessels in the fundus is excluded.
  • the focus state of the imaging unit 100 with respect to the fundus of the eye E is appropriate, the image of the index 200 projected onto the fundus is blurred, so the luminance information 20 as shown by the dotted line in FIG. 5B.
  • the control unit 2 detects the luminance information 20 (corresponding to the index 200, and based on this luminance information 20 (
  • the focus chart 14 and the focusing lens 23 are moved in conjunction with each other using the driving unit 102 so that the peak height L1 and the narrowest width W1 are obtained.
  • focus chart 14 is used for the fundus
  • the index 200 is projected, and the focus is adjusted based on the light receiving state (luminance information) of the index 200.
  • the present invention is not limited to this, and a specific part such as a blood vessel is extracted from the photographed fundus image.
  • the focus can be adjusted based on the luminance information of this part.
  • the control unit 2 turns off the light source 10 and flashes the light source 11 to illuminate the fundus with visible light (green monochromatic light in this embodiment). Reflection from the fundus The light passes through the half mirror 19 and the objective lens 20 and forms an image, and then passes through the dichroic mirror 21, the aperture 22, the focusing lens 23, the imaging lens 24, and the first mirror 25 to the two-dimensional light receiving element 26. Received light.
  • the control unit 2 stores the obtained fundus image in the storage unit 5 as the fundus image of the subject E and sequentially turns on the other fixation lamps 27, and uses the same method for the same eye E. A plurality of fundus images are obtained.
  • the ophthalmologic photographing apparatus analyzes a photographed fundus image (fundus image) using a Yural network, and analyzes diabetic retinopathy (hereinafter simply referred to as DR). It also serves as a fundus image analyzer that can determine the onset of onset.
  • DR diabetic retinopathy
  • the fundus images obtained by sequentially lighting nine fixation lamps are joined together by an existing image processing technique to form a single fundus image.
  • here is an example of analysis using the fundus image obtained by the presentation of a single fixation lamp.
  • the image analysis unit 6 extracts the fundus image 300 as shown in FIG. 7 stored in the storage unit 5.
  • a blood vessel 301 and an optic nerve head 302 (which may not be photographed depending on the fixation position of the fixation lamp) are photographed.
  • DR diabetic retinopathy
  • a dark portion 303 caused by bleeding and a bright portion 304 called cotton wool spots are photographed.
  • the image analysis unit 6 uses image processing technology to extract the portions of the fundus image, such as blood vessels and optic nerve heads, that interfere with the subsequent analysis, removes (masks) the corresponding pixels, and leaves the remaining fundus image All the pixels are counted as 0 to 255 levels of luminance information, and luminance distribution information of the entire fundus image is obtained.
  • the image is captured using the green monochromatic light. Therefore, the red portion of the blood vessel or the like on the fundus is photographed in black, and the subsequent blood vessel or dark color portion is captured. The extraction is becoming easier.
  • FIG. 8 is a diagram showing luminance distribution information (global luminance distribution information) of the entire fundus image after the blood vessel 301 and the optic disc 302 are excluded.
  • the horizontal axis represents the luminance value from 0 to 255
  • the vertical axis represents the number of pixels.
  • a solid line 310 indicates luminance distribution information based on the fundus image 300
  • a dotted line 320 indicates luminance distribution information of a healthy person obtained in advance, and indicates reference luminance distribution information.
  • the healthy person's luminance distribution information (dotted line) 320 is determined in advance by quantitatively obtaining luminance distribution information obtained from the fundus image power of a plurality of healthy persons.
  • the image analysis unit 6 divides into three zones, a dark color zone, a gray zone, and a light color zone, at the boundary where the luminance distribution information (solid line) 310 to be analyzed and the luminance distribution information 320 of the healthy person intersect.
  • the image analysis unit 6 analyzes the luminance information of the portion corresponding to the dark zone in the luminance distribution information 310 using the -Ural network.
  • the gray zone and the light color zone are also analyzed using the -Ural network, and it is determined whether or not DR is indicated based on these output results.
  • the neural network of the present embodiment is configured as a feed-forward type composed of three layers, an input layer, an intermediate layer, and an output layer, and inputs and outputs learning data (teacher signal) to backpropagation. Learning (training) using the method.
  • Input data includes, for example, the total number of pixels in each zone, maximum (minimum) luminance information, the difference in the number of pixels between the gray and dark (light) zones, the number of pixels relative to the peak value in each zone, the bottom in each zone Feature data required for DR determination, such as the number of pixels for the value, is given.
  • the weighting parameters within the neuron's network matrix are systematically adjusted until an acceptable response is achieved.
  • the network is trained on all pre-prepared training map datasets and then tested simultaneously on an independent test map dataset. The network has been improved to correctly classify both training and test sets.
  • the tolerance of both is set to a low value so that higher accuracy can be realized.
  • the control unit 2 displays the fact on the monitor 3. If DR is not indicated (not considered abnormal), the image analysis unit 6 performs analysis using a local network based on local luminance partial information.
  • the Eural network used in this case is also structured and trained as described above!
  • FIG. 9 shows a diagram in which the fundus image is divided into local luminance distribution information.
  • the image analysis unit 6 masks pixels corresponding to blood vessels and optic nerve heads on the fundus image and divides the fundus image into small regions 400 (one sector). For each sector 400 where no masked pixel exists, the image analysis unit 6 divides the pixel 401 in the sector 1 into dark, gray, and light pixels, and counts the number. At this time, if the number of dark or light pixels exceeds the predetermined number, the sector 400 is counted as an abnormal sector 400 because it is likely to indicate DR. If there is no masked pixel, analyze all sectors as well! /, And detect abnormal sectors.
  • the image analysis unit 6 analyzes the portion having the dark pixel force and the portion having the light pixel force in the sector 400 determined to be abnormal in the same manner as described above using the -Ural network, and performs an abnormality based on the output result. It is judged whether or not it shows the DR for every 400 sectors.
  • the control unit 2 displays (notifies) that fact on the monitor 3. If the result of neural network output does not indicate DR, control unit 2 displays that fact on monitor 3.
  • the fundus image is analyzed using the -Ural network, and the result of the analysis is a force that is used to determine the presence or absence of the onset of diabetic retinopathy. /.
  • the fundus image force such as blood vessels and optic nerve head in this way, we obtain the luminance distribution tendency of each pixel and use a neural network. Even for other eye diseases, the same analysis can be performed based on the entire fundus image or local differences in the fundus.
  • the fundus imaging apparatus is configured to have a configuration for performing image analysis, but the present invention is not limited to this.
  • the image analysis described above does not have a function of photographing the fundus, and can be applied to any device that analyzes fundus images obtained by other devices.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Description

明 細 書
眼底撮影装置
技術分野
[0001] 本発明は被検眼の眼底を撮影する眼底撮影装置に関する。
背景技術
[0002] 従来、操作者が装置を駆動させて被検者の眼に対してァライメントや焦点合わせ( フォーカス)を行い、眼底の撮影を行う眼底カメラが知られている(例えば、特許文献 1参照)。このような眼底カメラでは被検眼にァライメント指標やフォーカス指標を投影 し、操作者がこれを確認しながら位置調整をし、その後眼底撮影を行っていた。
[0003] 特許文献 1 :特開平 11 4808号公報
発明の開示
発明が解決しょうとする課題
[0004] し力しながら、上述したような眼底カメラを用いて良好な眼底画像を得ようとする場 合、その位置合わせに操作者の経験が必要であり、簡単なものではなかった。
[0005] 上記従来技術の問題点に鑑み、被検眼と装置との位置合わせが容易で好適に眼 底を撮影することのできる眼底撮影装置を提供することを技術課題とする。
課題を解決するための手段
[0006] 上記課題を解決するために、本発明は以下のような構成を備えることを特徴とする
[0007] (1) 被検眼の眼底を撮影するための眼底撮影光学系を持つ眼底撮影装置にお いて、撮影光軸を挟んで対称に配置されたァライメント用光源を有し,被検眼に対し て一対のァライメント指標を投影するァライメント指標投影手段と、該ァライメント指標 投影手段によってァライメント指標が投影された被検眼前眼部を撮影する前眼部像 撮影手段と、該前眼部撮影手段により撮影された前眼部像カゝら画像処理により被検 眼の瞳孔中心を求める瞳孔中心検出手段と、前記前眼部撮影手段により撮影された 前記一対のァライメント指標の中間位置及びァライメント指標相互の間隔を求めるァ ライメント指標検出手段と、前記検出された瞳孔中心と一対のァライメント指標の中間 位置とから被検眼に対する装置の上下左右方向のァライメント情報を得て、前記ァラ ィメント指標相互の間隔力 被検眼と装置との前後方向のァライメント情報を得るァラ ィメント情報取得手段と、該ァライメント取得手段により得られたァライメント情報に基 づ!ヽて装置の位置合せを行う位置合わせ手段と、を有することを特徴とする。
[0008] (2) (1)の眼底撮影装置において、前記ァライメント指標は被検眼に対して垂直 方向に延びる矩形状の指標であることを特徴とする。
[0009] (3) (1)の眼底撮影装置は、赤外光照射して被検眼眼底を照明するための照明 光照射光学系と、該照明光照射光学系により照明された眼底を前記眼底撮影光学 系を用いて撮影することにより得られる眼底像の所定位置における輝度情報に基づ V、てフォーカス情報を得るフォーカス情報取得手段と、該フォーカス情報取得手段に より得られた前記フォーカス情報に基づいて前記眼底撮影光学系が持つフォーカシ ングレンズを光軸方向に移動させて装置のフォーカス合わせを行うフォーカス調整手 段と、を有することを特徴とする。
[0010] (4) (3)の眼底撮影装置において、前記照明光照射光学系は前記赤外光の照射 光路中であって被検眼眼底と共役とされる位置に置かれるフォーカスチャートを有し 、前記フォーカス情報取得手段は前記フォーカスチャートによって眼底像に投影され るフォーカス指標の輝度情報に基づいて前記フォーカス情報を得ることを特徴とする
[0011] (5) (4)の眼底撮影装置において、前記フォーカスチャートは前記フォーカシング レンズと連動して光軸にそって前後方向に移動可能であることを特徴とする。
[0012] (6) (5)の眼底撮影装置において、前記照明光照射光学系は可視光を被検眼眼 底に向けて照射するための光学系を有し、前記フォーカスチャートは前記可視光を フォーカスチャート全域にお!、て透過させ、前記赤外光をフォーカス指標を形成する ための領域にて遮蔽し,その他の領域にて透過させる構成を有することを特徴とする 発明の効果
[0013] 本発明によれば、被検眼と装置との位置合わせが容易で好適に眼底を撮影するこ とがでさる。 図面の簡単な説明
[0014] [図 1]本実施形態における眼底撮影装置の概略構成を示した図である。
[図 2]本実施形態における眼底撮影装置の光学系を示した図である。
[図 3]フォーカスチャートの構成を示した図である。
[図 4]ァライメント指標が形成された前眼部像を示した図である。
[図 5A]本実施形態における眼底撮影装置のフォーカス調整を説明するための図で ある。
[図 5B]本実施形態における眼底撮影装置のフォーカス調整を説明するための図で ある。
[図 6]糖尿病性網膜症の有無を-ユーラルネットワークを用いて解析するためのフロ 一チャートである。
[図 7]糖尿病性網膜症が発症している患者眼の眼底像を示した模式図である。
[図 8]血管や視神経乳頭を除いた後の眼底画像全体の輝度分布情報を示した図で ある。
[図 9]眼底画像を局所的な輝度分布情報に区分けした状態を示した図である。 符号の説明
[0015] 1 眼科撮影装置
2 制御部
10 光源
14 フォーカスチャート
26 2次元受光素子
31 2次元受光素子
32a, 32b 光源
100 撮影部
101 駆動部
発明を実施するための最良の形態
[0016] 以下、本発明の実施形態を図面に基づいて説明する。図 1は本実施例の眼底撮影 装置の概略構成を示した模式図である。眼底撮影装置 1は CPU等を有する制御回 路カ なる制御部 2、種々の情報を表示するためのモニタ 3、各種設定を行うための 指示入力部 4、眼底画像等を記憶するための記憶部 5、記憶された眼底画像をニュ 一ラルネットワーク技術を用いて解析する画像解析部 6、解析結果を出力するため出 力部 7、被検眼 Eの眼底を撮影するための光学系を有する撮影部 100、撮影部 100 を被検眼 Eに対して前後,上下,左右方向 (XYZ方向)に駆動させるための駆動部 1 01等を備える。また、 8は撮影窓であり、被検眼 Eをこの撮影窓 8に位置させることに より装置 1内部の撮影部 100によって被検眼 Eの眼底を撮影する。モニタ 3,指示入力 部 4,記憶部 5,画像解析部 6、出力部 7,撮影部 100 (光源、受光素子等),駆動部 1 01は、制御部 2に電気的に接続され、制御部 2からの指令信号によって駆動制御さ れる。
[0017] 図 2は撮影部 100が持つ光学系の構成を示した図である。
[0018] 被検眼を照明するための光学系は、眼底照明用の赤外光を発する光源 10、眼底 を撮影するための可視域のフラッシュ光を発する光源 11、赤外光を反射し可視光を 透過させる特性を持つダイクロイツクミラー 12、コリメータレンズ 13、フォーカスチヤー ト 14、集光レンズ 15、リング状の開口を有するリングスリット 16、ミラー 17、リレーレン ズ 18、ハーフミラー 19からなる。光源 10及び光源 11は、被検眼 Eの瞳と共役な関係 となっている。また、光源 11は可視光を発するものであれば使用することが可能であ るが、本実施形態では撮影される眼底像のうち、血管像をより強調させるために緑色 の単色光を発する光源を用いて 、る。
[0019] フォーカスチャート 14は、図 3に示すように、可視光及び赤外光を通すフィルタ 14a 上に所定の大きさのリング形状のチャート 14bが形成されている。このチャート 14bは 可視光を透過し、赤外光を透過させな 、特性を持たせたコーティング処理によって 形成されている。なお、指標を血管等と区別するため、血管の太さよりも十分大きな 形状としておくのが好ましい。また、フォーカスチャート 14は駆動手段 102によって後 述するフォーカシングレンズ 23とともに光軸に沿って移動し、被検眼 Eの眼底上にフ オーカス時の指標となるリング像を形成する。また、リングスリット 16は、リレーレンズ 1 8を介して被検眼 Eの瞳と共役となる位置に置かれる。
[0020] 光源 10から発せられた赤外光は、ダイクロイツクミラー 12により反射された後、コリメ ータレンズ 13を経てフォーカスチャート 14を背後力も照明する。フォーカスチャート 1 4を通過した赤外光は、集光レンズ 15を経てリングスリット 16を照明する。リングスリツ ト 16を透過した赤外光は、ミラー 17にて反射した後、リレーレンズ 18を介してハーフ ミラー 19にて反射した後、被検眼 Eの瞳にて結像し、眼底上にフォーカス用の指標と なるリング像を形成させつつ、眼底を照明する。また、光源 11から発せられた可視光 (本実施形態では緑色の単色光)は、ダイクロイツクミラー 12を透過した後、前述した 光源 10からの赤外光と同様の光路を迪り、被検眼 Eの眼底を照明する。なお、フォー カスチャート 14に形成されているチャート 14bは可視光を透過するため、光源 11から 発せられた可視光は被検眼 Eの眼底上にリング像を形成することなぐ眼底を一様に 照明する。
[0021] 被検眼 Eの眼底を撮影するための光学系は、被検眼 E側から、ハーフミラー 19、対 物レンズ 20、ダイクロイツクミラー 21、絞り 22、フォーカシングレンズ 23、結像レンズ、 ハーフミラー 25、 2次元受光素子 26からなる。 2次元受光素子 26は、被検眼 Eの眼 底と共役な関係となっている。また、絞り 22は対物レンズ 20を介して被検眼 Eの瞳と 共役となる位置に配置される。また、フォーカシングレンズ 23は駆動手段 102によつ てフォーカスチャートとともに光軸に沿って移動する。光源 10または光源 11による照 明光の眼底力 の反射光は、ハーフミラー 19、対物レンズ 20、を経てー且結像した 後、ダイクロイツクミラー 21、絞り 22、フォーカシングレンズ 23、結像レンズ 24、 ハー フミラー 25を経て 2次元受光素子 26にて受光される。
[0022] 32a, 32bは、被検眼 Eの正面から上下左右、及び前後方向検出用のァライメント 指標を投影するとともに被検眼 Eの前眼部を照明するための光源である。光源 32a, 32bは撮影光軸 L1を挟んで対称的に配置された一対の矩形状の LEDであり、前述 した光源 10とは異なる波長の赤外光を発する。光源 32a, 32bは、被検眼 Eの角膜 に向けて所定の投影角度にて発散光束による有限遠の指標 (被検眼に対して垂直 方向に延びる矩形状の指標)を投影するとともに、前眼部全体を照明する。
[0023] 被検眼 Eの前眼部を撮影するための光学系は、ハーフミラー 19,対物レンズ 20,ダ ィクロイツクミラー 21を眼底撮影用の光学系と共用するとともに、ダイクロイツクミラー 2 1による反射方向に配置される、フィールドレンズ 28、ミラー 29、結像レンズ 30、 2次 元受光素子 31からなる。光源 32a, 32bにより照明された被検眼 Eの前眼部像は被 検眼角膜に形成されるァライメント指標とともに、ハーフミラー 19、対物レンズ 20、ダ ィクロイツクミラー 21、フィールドレンズ 28、ミラー 29、結像レンズ 30を介して 2次元受 光素子 31に受光される。なお、 2次元受光素子 31は被検眼 Eの瞳と共役な関係とな つている。また、ダイクロイツクミラー 21は、可視光及び光源 10からの赤外光を透過し 、光源 32a, 32bから照射される赤外光を反射する特性を持つ。
[0024] 27はハーフミラー 25の反射方向に置かれた可視光を発する固視灯であり、本実施 例では、光源 11と同色 (本実施形態では緑色)の光を発する 3 X 3の計 9個の複数の 固視灯を持つ。この固視灯 27を選択的に点灯させ、被検眼 Eの固視を行うことにより 、異なる領域の眼底像を得ることができる。
[0025] 以上のような構成を備える装置において、その動作を説明する。
[0026] まず、被検者の顔を装置に近づけ、撮影を行う側の眼 (被検眼 E)を図 1に示した撮 影窓 8上に位置させ、装置内部を覼き込むようにする。制御部 2は 9個の固視灯 27う ち、一つを点灯 (ここでは光軸上に位置する中央の固視灯とする)し、固視させる。さ らに制御部 2は光源 32a, 32bを点灯させ、 2次元受光素子 31に被検眼 Eの前眼部 像を受光させ、その受光結果に基づいて装置 (撮影部 100)と被検眼 Eとの位置合わ せ (ァライメント)を行う。
[0027] 図 4は 2次元受光素子 31にて受光した前眼部像を示した概略図である。光源 32a, 32bを点灯させることにより、被検眼 Eの前眼部が照明されるとともに、図示するような 矩形状のァライメント指標 33L及び 33Rが、被検眼 Eの角膜に投影される。制御部 2 は 2次元受光素子 31にて受光された前眼部像力 画像処理により瞳孔 Pを特定する とともに、特定した瞳孔 Pの中心 Pを求める。また、制御部 2は画像処理により前眼部
0
像に映るァライメント指標 33L, 33Rの中心を得るとともに、中心同士を結んだ線分の 中間位置 Mを求める。被検眼 Eに対する撮影部 100の上下左右方向のァライメント 状態は、求めた中心 Pと中間位置 Mとの位置関係力 検出され、前後方向のァライ
0
メント状態は、ァライメント指標 33L, 33Rの両者の像間隔を比較することにより検出 される。また、ァライメント指標 33L, 33Rは、有限遠指標の投影であるので、被検眼 Eと撮影部 100との前後方向の変化に伴ってその像間隔が変化することとなる。本実 施形態では、被検眼 Eと撮影部 100との前後方向における適正なァライメント距離に 対応するァライメント指標同士の間隔を予め所定値として求めておき、これを記憶部 5に記憶させてある。
[0028] このように制御部 2は、光源 32a, 32bにより形成される指標像 (ァライメント指標)か ら求められる中間位置 Mと、前眼部像力 求められる瞳孔中心求めた中心 Pとに基
0 づいて撮影部を移動させるための距離情報を得て、両者が一致するように駆動部 10 1を駆動させて撮影部 100全体を上下左右方向に移動させ位置合せを行う。また、 制御部 2はァライメント指標 33Lと 33Rとの間隔が所定の間隔 (所定値)となるように、 駆動部 101を駆動させ、撮影部 100全体を被検眼に対して前後方向に移動させ位 置合せを行う。ァライメント状態がそれぞれ所定の許容範囲に入ると、制御部はァライ メント完了を判断する。
[0029] 次に、制御部 2は光源 32a, 32bを消灯させるとともに、眼底照明用の光源 10を点 灯させ、赤外光を被検眼 Eの眼底に照射し、その反射光を 2次元受光素子 26にて受 光し眼底像を得る。図 5Aは 2次元受光素子 26にて受光した眼底像を示した概略図 である。 200はフォーカスチャート 14により眼底に投影された指標である。
[0030] 制御部 2は 2次元受光素子 26にて受光した眼底像において、指標 200を通るライ ン 210を設定し、この設定したライン 210上における輝度情報力も指標 200に該当す る輝度情報を検出する。図 5Bは設定したライン 210上における輝度情報 220を示し た模式図である。図において縦軸は輝度値を、横軸は位置を示し、 200' は指標 20 0に対応する輝度情報を示している。なお、図 5Bでは、説明を簡単にするために、眼 底における血管等、その他の部位に相当する輝度情報は除いてある。ここで、被検 眼 Eの眼底に対する撮影部 100のフォーカス状態が適切でな 、場合、眼底上に投影 される指標 200の像はぼけるため、図 5Bに示す点線のように、その輝度情報 20( のピーク高さ L2は低くなり、所定の閾値 Tにおける幅 W2は広くなる。制御部 2は、こ の指標 200に該当する輝度情報 20( を検出し、この輝度情報 20( に基づいて 最も高くなるピーク高さ L1と、最も狭くなる幅 W1が得られるように、駆動部 102を用 いてフォーカスチャート 14及びフォーカシングレンズ 23を連動して移動させ、フォー カス完了を判断する。なお、本実施形態ではフォーカスチャート 14を用いて眼底に 指標 200を投影し、この指標 200の受光状態 (輝度情報)に基づいてフォーカスを調 節するもとしたが、これに限るものではなぐ撮影された眼底像から血管等の特定の 部位を抽出して、この部位の輝度情報に基づ 、てフォーカスを調節することもできる
[0031] ァライメント及びフォーカスが完了すると、制御部 2は光源 10を消灯させるとともに 光源 11をフラッシュ点灯させて可視光 (本実施形態では緑色の単色光)にて眼底を 照明する、眼底からの反射光は、ハーフミラー 19、対物レンズ 20、を経てー且結像し た後、ダイクロイツクミラー 21、絞り 22、フォーカシングレンズ 23、結像レンズ 24、ノヽ 一フミラー 25を経て 2次元受光素子 26に受光される。制御部 2は、得られた眼底像 を被検者 Eの眼底画像として記憶部 5に記憶させるとともに、別の固視灯 27を順次点 灯させて、同様な手法にて同じ被検眼 Eから複数の眼底画像を得る。
[0032] 次に、画像解析部 6による眼底画像の解析について図 6のフローチャートに基づき 説明する。本実施形態の眼科撮影装置は、撮影した眼底像 (眼底画像)を画像解析 部 6が持つ-ユーラルネットワークを用いて解析し、糖尿病性網膜症(Diabetic Retino pathy以下、単に DRと略す)の発症の有無を求めることができる眼底画像解析装置 の役目も果たす。なお、本実施形態の眼科撮影装置においては、 9個の固視灯を順 次点灯させることによって各々得られた眼底画像を既存の画像処理技術によって繋 ぎ合わせ一枚の眼底画像とし、これを解析するが、ここでは説明を簡単にするために 、 1個の固視灯の呈示によって得られた眼底画像を用いて解析する例を以下に示す
[0033] 始めに画像解析部 6は、記憶部 5に記憶された図 7に示すような眼底画像 300を取 り出す。このような眼底画像 300には、血管 301や視神経乳頭 302 (固視灯の点灯位 置によっては撮影されないこともある)が撮影されている。また、糖尿病性網膜症 (DR )である場合、出血によって生じる暗色部 303や綿花様白斑(cotton wool spots)と呼 ばれる明色部 304が撮影される。画像解析部 6は、画像処理技術を用いて眼底画像 における血管や視神経乳頭等の、その後の解析の邪魔となる部分を抽出し、これに 該当するピクセルを取り除き(マスクし)、残った眼底画像の各ピクセルを 0から 255段 階の輝度情報として全てカウントし、眼底画像全体の輝度分布情報を得る。なお、本 実施形態では眼底撮影を行う際に緑色の単色光を用いて撮影を行って ヽるため、眼 底上における血管等の赤い部分が黒色にて撮影されることとなり、その後の血管や 暗色部の抽出が行いやすくなつている。
[0034] 図 8は血管 301や視神経乳頭 302を除 、た後の眼底画像全体の輝度分布情報( グローバルな輝度分布情報)を示した図である。図中、横軸は 0〜255までの輝度値 を、縦軸はピクセル数を示す。また、実線 310は眼底画像 300に基づいた輝度分布 情報を、点線 320は予め求められている健常者の輝度分布情報であり、基準とされる 輝度分布情報を示している。この健常者の輝度分布情報 (点線) 320は、予め複数 の健常者の眼底画像力 得られる輝度分布情報を定量的に求めて決定されている。 画像解析部 6は解析する輝度分布情報 (実線) 310と健常者の輝度分布情報 320と が交わる付近を境界に暗色ゾーン、グレーゾーン、明色ゾーンの 3ゾーンに分ける。 画像解析部 6は、輝度分布情報 310において暗色ゾーンに該当する部分の輝度情 報を-ユーラルネットワークを用いて解析する。また同様にしてグレーゾーン、明色ゾ ーンにお 、ても-ユーラルネットワークを用いて解析し、これらの出力結果に基づ!/ヽ て DRを示すか否かを判断する。
[0035] なお、本実施形態のニューラルネットワークは、入力層、中間層、出力層の 3層から なるフィードフォワード型で構成されており、学習用の入出力データ (教師信号)を、 バックプロパゲーション法を用いて学習(トレーニング)させている。入力データとして は、例えば、各ゾーンの合計ピクセル数、最大 (最小)輝度情報、グレーゾーンと暗色 (明色)ゾーンとのピクセル数の差、各ゾーンにおけるピーク値に対するピクセル数、 各ゾーンにおけるボトム値に対するピクセル数等、の DRの判定に必要とされる特徴 データが与えられる。全てのトレーニングにおいては、出力エラーが所望の許容差よ り大きければ、ニューロンのネットワークマトリックス内部の重み付けパラメータは許容 される応答が出るまで体系的に調整されている。さらに、ネットワークは予め用意され た全てのトレーニング用マップデータセットでトレーニングが行われた後、それらとは 異なる独立したテスト用のマップデータセットで同時にテストされている。ネットワーク はトレーニング用とテスト用セットの両方を正しく分類できるように改良されているので
、両者の許容誤差は、より高い精度を実現できるように低い値に設定されている。 [0036] 画像解析部 6に用意されたこのような-ユーラルネットワークによって眼底画像全体 の輝度分布情報が解析され DRが示されると、制御部 2はモニタ 3にその旨を表示す る。また、 DRが示されない (異常とされない)場合、次に画像解析部 6は局所的な輝 度部分情報に基づ 、て-ユーラルネットワークを用 、て解析を行う。この際用いられ る-ユーラルネットワークも上述したような構成、トレーニングを行って!/、る。
[0037] 図 9は眼底画像を局所的な輝度分布情報に区分けした図を示す。前述同様に、画 像解析部 6は眼底画像上の血管や視神経乳頭に該当するピクセルをマスクするとと もに、眼底画像を小さな領域 400 (セクタ一)に区分けする。画像解析部 6はマスクさ れたピクセルが存在しない各セクタ一 400に対して、そのセクタ一内にあるピクセル 4 01を暗色、グレー、明色のピクセルにそれぞれ分け、その数をカウントする。この際に 暗色又は明色のピクセル数が既定数を超えて 、れば、そのセクタ一 400は DRを示 す可能性が高いとして、異常なセクタ一 400としてカウントされる。マスクされたピクセ ルが存在しな 、全てのセクタ一 400を同様に解析して!/、き、異常なセクタ一 400を検 出していく。
[0038] 画像解析部 6は異常とされたセクタ一 400における暗色のピクセル力もなる部分、 明色のピクセル力もなる部分を前述同様に-ユーラルネットワークによって解析し、そ の出力結果に基づいて異常とされたセクタ一 400毎に対して DRを示す力否かを判 断する。画像解析部 6による-ユーラルネットワークによって眼底画像が所定のセクタ 一毎に解析され DRが示されると、制御部 2はモニタ 3にその旨を表示 (報知)する。ま た、ニューラルネットワークの出力結果により DRとされない場合、制御部 2はモニタ 3 にその旨を表示する。さらに、ニューラルネットワークにて DRを示すか否かを判断で きない場合、定義されていないとする出力を行い、制御部 2はこの出力結果に基づい て、別の要因が考えられるものとして、その他を示す結果をモニタ 3に表示する。これ らの表示結果は指示入力部 4の操作によって出力部 7より印刷 (報知)される。
[0039] なお、本実施形態では眼底画像を-ユーラルネットワークを用いて解析し、その解 析結果力 糖尿病性網膜症の発症の有無を判断するものとしている力 これに限るも のではな!/、。このように眼底画像力 血管や視神経乳頭等を除去 (マスク)した上で、 各ピクセルが持つ輝度の分布傾向を得て、ニューラルネットワークを用いることにより 、他の眼疾患にぉ 、ても眼底画像全体或いは眼底における局所的な差異に基づ 、 て同様の解析を行うことができる。
また、本実施形態では眼底撮影装置に画像解析を行うための構成を持たせるもの としてるが、これに限るものではない。上述した画像解析は、眼底を撮影する機能を 持たせず、他の装置で得た眼底画像を解析する装置にぉ ヽても適用できる。

Claims

請求の範囲
[1] 被検眼の眼底を撮影するための眼底撮影光学系を持つ眼底撮影装置において、 撮影光軸を挟んで対称に配置されたァライメント用光源を有し,被検眼に対して一 対のァライメント指標を投影するァライメント指標投影手段と、
該ァライメント指標投影手段によってァライメント指標が投影された被検眼前眼部を 撮影する前眼部像撮影手段と、
該前眼部撮影手段により撮影された前眼部像力 画像処理により被検眼の瞳孔中 心を求める瞳孔中心検出手段と、
前記前眼部撮影手段により撮影された前記一対のァライメント指標の中間位置及 びァライメント指標相互の間隔を求めるァライメント指標検出手段と、
前記検出された瞳孔中心と一対のァライメント指標の中間位置とから被検眼に対す る装置の上下左右方向のァライメント情報を得て、前記ァライメント指標相互の間隔 から被検眼と装置との前後方向のァライメント情報を得るァライメント情報取得手段と 該ァライメント取得手段により得られたァライメント情報に基づいて装置の位置合せ を行う位置合わせ手段と、を有することを特徴とする眼底撮影装置。
[2] 請求項 1の眼底撮影装置において、前記ァライメント指標は被検眼に対して垂直方 向に延びる矩形状の指標であることを特徴とする眼底撮影装置。
[3] 請求項 1の眼底撮影装置は、赤外光照射して被検眼眼底を照明するための照明光 照射光学系と、
該照明光照射光学系により照明された眼底を前記眼底撮影光学系を用いて撮影 すること〖こより得られる眼底像の所定位置における輝度情報に基づ!/ヽてフォーカス情 報を得るフォーカス情報取得手段と、
該フォーカス情報取得手段により得られた前記フォーカス情報に基づいて前記眼 底撮影光学系が持つフォーカシングレンズを光軸方向に移動させて装置のフォー力 ス合わせを行うフォーカス調整手段と、を有することを特徴とする眼底撮影装置。
[4] 請求項 3の眼底撮影装置において、前記照明光照射光学系は前記赤外光の照射光 路中であって被検眼眼底と共役とされる位置に置かれるフォーカスチャートを有し、 前記フォーカス情報取得手段は前記フォーカスチャートによって眼底像に投影され るフォーカス指標の輝度情報に基づいて前記フォーカス情報を得ることを特徴とする 眼底撮影装置。
[5] 請求項 4の眼底撮影装置において、前記フォーカスチャートは前記フォーカシンダレ ンズと連動して光軸にそって前後方向に移動可能であることを特徴とする眼底撮影 装置。
[6] 請求項 5の眼底撮影装置において、前記照明光照射光学系は可視光を被検眼眼底 に向けて照射するための光学系を有し、前記フォーカスチャートは前記可視光をフォ 一カスチャート全域にぉ 、て透過させ、前記赤外光をフォーカス指標を形成するた めの領域にて遮蔽し,その他の領域にて透過させる構成を有することを特徴とする眼 底撮影装置。
PCT/JP2006/323412 2006-11-24 2006-11-24 Dispositif de photographie de fond d'œil WO2008062527A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP06833216.2A EP2090224B1 (en) 2006-11-24 2006-11-24 Fundus photographing device
JP2008545285A JP5117396B2 (ja) 2006-11-24 2006-11-24 眼底撮影装置
PCT/JP2006/323412 WO2008062527A1 (fr) 2006-11-24 2006-11-24 Dispositif de photographie de fond d'œil

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/323412 WO2008062527A1 (fr) 2006-11-24 2006-11-24 Dispositif de photographie de fond d'œil

Publications (1)

Publication Number Publication Date
WO2008062527A1 true WO2008062527A1 (fr) 2008-05-29

Family

ID=39429469

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/323412 WO2008062527A1 (fr) 2006-11-24 2006-11-24 Dispositif de photographie de fond d'œil

Country Status (3)

Country Link
EP (1) EP2090224B1 (ja)
JP (1) JP5117396B2 (ja)
WO (1) WO2008062527A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011050532A (ja) * 2009-09-01 2011-03-17 Canon Inc 眼底カメラ
EP2394569A1 (en) 2010-06-10 2011-12-14 Nidek Co., Ltd Ophthalmic apparatus
EP2564767A1 (en) 2011-08-31 2013-03-06 Nidek Co., Ltd. Fundus photographing apparatus
JP2013520254A (ja) * 2010-02-25 2013-06-06 チェンテルビュー エス.ピー.エー. 眼底カメラ
JP2013255859A (ja) * 2013-10-03 2013-12-26 Canon Inc 眼科装置、画像取得方法およびプログラム
EP2689719A1 (en) 2012-07-27 2014-01-29 Nidek Co., Ltd Fundus photographing apparatus
US8696127B2 (en) 2010-07-05 2014-04-15 Nidek Co., Ltd. Ophthalmic apparatus
JP2014204840A (ja) * 2013-04-12 2014-10-30 キヤノン株式会社 眼科装置、眼科装置の制御方法、プログラム
JP2020515346A (ja) * 2017-03-30 2020-05-28 クイーンズランド・ユニヴァーシティ・オブ・テクノロジーQueensland University Of Technology 眼科撮像装置およびシステム
US11503995B2 (en) * 2019-04-24 2022-11-22 Topcon Corporation Ophthalmologic apparatus

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6140979B2 (ja) * 2012-11-09 2017-06-07 キヤノン株式会社 眼科撮影装置及び方法
US9386984B2 (en) * 2013-02-08 2016-07-12 Ethicon Endo-Surgery, Llc Staple cartridge comprising a releasable cover

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11146864A (ja) * 1997-11-17 1999-06-02 Koonan:Kk 眼科装置用の作動位置決定装置および眼底撮影装置用の作動位置決定装置
JP2002291701A (ja) * 2001-03-29 2002-10-08 Canon Inc 眼科装置、及びそのオートアライメント方法
JP2004290535A (ja) * 2003-03-27 2004-10-21 Nidek Co Ltd 眼底カメラ
JP2005312751A (ja) * 2004-04-30 2005-11-10 Nidek Co Ltd 眼底カメラ

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165763A (ja) * 2000-11-30 2002-06-11 Topcon Corp 非接触式眼圧計
JP4533013B2 (ja) * 2004-06-14 2010-08-25 キヤノン株式会社 眼科装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11146864A (ja) * 1997-11-17 1999-06-02 Koonan:Kk 眼科装置用の作動位置決定装置および眼底撮影装置用の作動位置決定装置
JP2002291701A (ja) * 2001-03-29 2002-10-08 Canon Inc 眼科装置、及びそのオートアライメント方法
JP2004290535A (ja) * 2003-03-27 2004-10-21 Nidek Co Ltd 眼底カメラ
JP2005312751A (ja) * 2004-04-30 2005-11-10 Nidek Co Ltd 眼底カメラ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2090224A4 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8534836B2 (en) 2009-09-01 2013-09-17 Canon Kabushiki Kaisha Fundus camera
JP2011050532A (ja) * 2009-09-01 2011-03-17 Canon Inc 眼底カメラ
JP2013520254A (ja) * 2010-02-25 2013-06-06 チェンテルビュー エス.ピー.エー. 眼底カメラ
EP2394569A1 (en) 2010-06-10 2011-12-14 Nidek Co., Ltd Ophthalmic apparatus
US8857987B2 (en) 2010-06-10 2014-10-14 Nidek Co., Ltd. Ophthalmic apparatus
US8696127B2 (en) 2010-07-05 2014-04-15 Nidek Co., Ltd. Ophthalmic apparatus
EP2564767A1 (en) 2011-08-31 2013-03-06 Nidek Co., Ltd. Fundus photographing apparatus
EP2689719A1 (en) 2012-07-27 2014-01-29 Nidek Co., Ltd Fundus photographing apparatus
JP2014204840A (ja) * 2013-04-12 2014-10-30 キヤノン株式会社 眼科装置、眼科装置の制御方法、プログラム
JP2013255859A (ja) * 2013-10-03 2013-12-26 Canon Inc 眼科装置、画像取得方法およびプログラム
JP2020515346A (ja) * 2017-03-30 2020-05-28 クイーンズランド・ユニヴァーシティ・オブ・テクノロジーQueensland University Of Technology 眼科撮像装置およびシステム
JP7195619B2 (ja) 2017-03-30 2022-12-26 インテグラル・スコープス・ピーティーワイ・リミテッド 眼科撮像装置およびシステム
US11779210B2 (en) 2017-03-30 2023-10-10 Integral Scopes Pty Ltd. Ophthalmic imaging apparatus and system
US11503995B2 (en) * 2019-04-24 2022-11-22 Topcon Corporation Ophthalmologic apparatus

Also Published As

Publication number Publication date
JP5117396B2 (ja) 2013-01-16
EP2090224A1 (en) 2009-08-19
EP2090224A4 (en) 2009-11-25
EP2090224B1 (en) 2014-08-20
JPWO2008062527A1 (ja) 2010-03-04

Similar Documents

Publication Publication Date Title
JP5117396B2 (ja) 眼底撮影装置
KR100738491B1 (ko) 안과 장치
KR101888688B1 (ko) 안굴절력 측정 장치
RU2612500C2 (ru) Система и способ для удаленного измерения оптического фокуса
JP3523453B2 (ja) 検眼装置
JP5879826B2 (ja) 眼底撮影装置
US6663242B1 (en) Simultaneous, wavelength multiplexed vision screener
US6616277B1 (en) Sequential eye screening method and apparatus
JP2018110726A (ja) 自覚式検眼装置及び自覚式検眼プログラム
US10470658B2 (en) Optometry apparatus and optometry program
JP5654225B2 (ja) 角膜形状測定装置
JP6853496B2 (ja) 検眼装置及び検眼プログラム
US20220338733A1 (en) External alignment indication/guidance system for retinal camera
JP2002051982A (ja) 眼科装置
WO2008062528A1 (fr) Analyseur d'image de fond d'œil
JP3950876B2 (ja) 眼底検査装置
JP6003234B2 (ja) 眼底撮影装置
US20160089027A1 (en) Method for photographically observing and/or documenting the fundus of an eye, and fundus camera
US7293874B2 (en) Apparatus for measuring anterior ocular segment
JP5710827B2 (ja) 角膜形状測定装置
JP6325856B2 (ja) 眼科装置及び制御方法
JP3305410B2 (ja) 眼科装置
JP7459491B2 (ja) 眼科測定装置
US20230233078A1 (en) Vision Screening Device Including Color Imaging
JPH05317264A (ja) 眼底カメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 06833216

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008545285

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2006833216

Country of ref document: EP