JP2006271739A - Three-dimensional fundus image-processing method and apparatus - Google Patents

Three-dimensional fundus image-processing method and apparatus Download PDF

Info

Publication number
JP2006271739A
JP2006271739A JP2005096541A JP2005096541A JP2006271739A JP 2006271739 A JP2006271739 A JP 2006271739A JP 2005096541 A JP2005096541 A JP 2005096541A JP 2005096541 A JP2005096541 A JP 2005096541A JP 2006271739 A JP2006271739 A JP 2006271739A
Authority
JP
Japan
Prior art keywords
fundus
data
dimensional
stereoscopic
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005096541A
Other languages
Japanese (ja)
Other versions
JP4699064B2 (en
Inventor
Naohisa Shibata
尚久 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2005096541A priority Critical patent/JP4699064B2/en
Publication of JP2006271739A publication Critical patent/JP2006271739A/en
Application granted granted Critical
Publication of JP4699064B2 publication Critical patent/JP4699064B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable appropriate comprehension of the three-dimensional information on the fundus oculi when a three-dimensional fundus image is observed by utilizing the binocular parallax of an observer. <P>SOLUTION: A three-dimensional fundus image-processing method includes a first step to store a pair of left and right stereoscopic image data captured by a stereoscopic fundus camera, a second step to acquire the three-dimensional data of the fundus oculi on the basis of the pair of left and right stereoscopic image data recorded in the first step, a third step to obtain the additional line data corresponding to the unevenness of the fundus oculi by arithmetic processing on the basis of the acquired three-dimensional data of the fundus oculi, and a fourth step to indicate the three-dimensional fundus image with the additional line to the observer by composing the additional line data acquired in the third step and the pair of left and right stereoscopic data. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、観察者の両眼視差を利用して立体眼底画像を観察する立体眼底画像観察装置に用いられるステレオ画像に対して画像処理を施すための立体眼底画像処理方法及び処理装置に関する。   The present invention relates to a stereoscopic fundus image processing method and processing apparatus for performing image processing on a stereoscopic image used in a stereoscopic fundus image observation apparatus that observes a stereoscopic fundus image using binocular parallax of an observer.

眼底の左右一対のステレオ画像を得る立体眼底カメラで得られた画像を立体的に観察する方法として、観察者の両眼視差を利用することにより眼底画像を立体的に観察する立体眼底画像観察装置を用いた方法が知られている。例えば、撮影画像を印刷(またはフィルム)された状態で立体眼底画像を観察するステレオビュアーや、ディスプレイを使ってステレオ画像を立体的に表示する立体眼底画像表示装置(特許文献1参照)を用いたものが知られている。
特開平7−323012号公報
Stereoscopic fundus image observation apparatus for stereoscopically observing a fundus image by utilizing the binocular parallax of an observer as a method of stereoscopically observing an image obtained by a stereoscopic fundus camera that obtains a pair of left and right stereo images of the fundus A method using is known. For example, a stereo viewer that observes a stereoscopic fundus image with a photographed image printed (or film) or a stereoscopic fundus image display device that stereoscopically displays a stereo image using a display (see Patent Document 1) is used. Things are known.
JP-A-7-323012

しかしながら、上記のような方法による観察の場合、奥行き感の感じ方が異なる場合があり、観察者によって立体眼底像に対して過度の奥行き感を感じたり、逆に、立体眼底像に対しての奥行き感があまり感じられないような場合もあり、適切な診断がしづらい部分がある。   However, in the case of observation by the above method, the feeling of depth may be different, and an observer may feel an excessive depth feeling on the stereoscopic fundus image, or conversely, on the stereoscopic fundus image. In some cases, the depth may not be felt so much, making it difficult to make an appropriate diagnosis.

本発明は、上記問題点を鑑み、観察者の両眼視差を利用して立体眼底画像を観察する場合において、眼底の3次元的な情報を的確に把握することができる立体眼底画像処理方法及びその装置を提案することを技術課題とする。   In view of the above problems, the present invention provides a stereoscopic fundus image processing method capable of accurately grasping the three-dimensional information of the fundus when observing a stereoscopic fundus image using the binocular parallax of the observer, and It is a technical problem to propose such a device.

上記課題を解決するために、本発明は以下のような構成を備えることを特徴とする。   In order to solve the above problems, the present invention is characterized by having the following configuration.

(1) 立体眼底カメラにより撮影された左右一対のステレオ画像データを記憶する第一ステップと、該第一ステップにて記憶された左右一対のステレオ画像データに基づいて眼底の3次元データを得る第二ステップと、得られた眼底の3次元データを基に眼底の凹凸に対応した補助線データを演算処理により求める第三ステップと、該第三ステップにて求めた補助線データと前記左右一対のステレオ画像データとを合わせて補助線付き立体眼底画像として観察者に示す第四ステップと、を備えることを特徴とする。
(2) (1)の立体眼底画像処理方法において、前記第三ステップは前記補助線データとして眼底の3次元データを基に眼底の三次元的な形状を表す等高線を求めるステップであることを特徴とする。
(3) (1)の立体眼底画像処理方法において、前記第三ステップは前記補助線データとして眼底の3次元データを基に深さレベルを表すグリット線を作成する第三ステップであることを特徴とする。
(4) (1)〜(3)のいずれかの立体眼底画像処理方法をプログラムとして記憶する記憶手段と、該記憶手段に記憶された前記プログラムを実行するプログラム実行手段とを有する。
(5) (4)の立体眼底画像表示装置において、前記立体眼底画像の表示時に、前記補助線を表示するか否かを選択する選択手段を設けたことを特徴とする。
(1) A first step of storing a pair of left and right stereo image data captured by a stereoscopic fundus camera, and obtaining three-dimensional data of the fundus based on the pair of left and right stereo image data stored in the first step Two steps, a third step for obtaining auxiliary line data corresponding to the unevenness of the fundus oculi based on the obtained three-dimensional data of the fundus, an auxiliary line data obtained in the third step and the pair of left and right And a fourth step which is shown to the observer as a stereoscopic fundus image with auxiliary lines together with the stereo image data.
(2) In the three-dimensional fundus image processing method of (1), the third step is a step of obtaining contour lines representing a three-dimensional shape of the fundus based on the three-dimensional fundus data as the auxiliary line data. And
(3) In the three-dimensional fundus image processing method according to (1), the third step is a third step of creating a grid line representing a depth level based on three-dimensional data of the fundus as the auxiliary line data. And
(4) Storage means for storing the three-dimensional fundus image processing method according to any one of (1) to (3) as a program, and program execution means for executing the program stored in the storage means.
(5) The stereoscopic fundus image display device according to (4) is characterized in that selection means is provided for selecting whether or not to display the auxiliary line when displaying the stereoscopic fundus image.

本発明によれば、眼底の3次元的な情報を的確に把握することができるため、観察者にとって診断等に有用な情報を得ることができる。   According to the present invention, since three-dimensional information of the fundus can be accurately grasped, information useful for diagnosis and the like for the observer can be obtained.

以下、本発明の実施形態について図面に基づいて説明する。図1は実施形態に係る装置のブロック構成図である。処理装置1は演算・解析部2、指示入力部であるキ−ボ−ド3とマウス4、眼底画像や解析結果等を表示するディスプレイ5、プリンタ6を備える。演算・解析部2は市販のパーソナルコンピュータが使用できる。他の構成品も市販のものが使用できる。7はデジタル立体眼底カメラであり、眼底で反射した照明光束を二孔絞りにより2つの光束に分け、左右一対の眼底ステレオ画像を得る。立体眼底カメラ7により撮影された左右一対のステレオ画像データは、処理装置1に送られてメモリ8に記憶される。立体眼底カメラ7はスライドフィルムに撮影するタイプのものや、CCDカメラにより撮影するタイプのものでも良い。後者のタイプの場合、眼底画像は静止画像として画像記憶手段に記録された後、直接あるいはフロッピ等の記録媒体を介して演算・解析部2に入力される。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of an apparatus according to the embodiment. The processing device 1 includes a calculation / analysis unit 2, a keyboard 3 and a mouse 4 that are instruction input units, a display 5 that displays fundus images and analysis results, and a printer 6. The calculation / analysis unit 2 can use a commercially available personal computer. Other components can also be used commercially. A digital stereoscopic fundus camera 7 divides the illumination light beam reflected by the fundus into two light beams by a two-hole aperture, and obtains a pair of left and right fundus stereo images. A pair of left and right stereo image data photographed by the stereoscopic fundus camera 7 is sent to the processing device 1 and stored in the memory 8. The stereoscopic fundus camera 7 may be of a type that shoots on a slide film or a type that shoots with a CCD camera. In the case of the latter type, the fundus image is recorded as a still image in the image storage means and then input to the calculation / analysis unit 2 directly or via a recording medium such as a floppy.

10は立体眼底カメラ7により撮影されたステレオ画像データを基に、眼底立体画像を観察者に対して表示する立体眼底画像表示装置である。表示装置10の構成としては、例えば、図1に示すように、観察者の右眼用と左眼用の眼底画像を所定の周期で交互に表示させるディスプレイ11と、ディスプレイ11に連動して左右のシャッタ部が交互に開閉する液晶シャッタメガネ12(観察者に装着する)を用いたような構成が考えられる。なお、本実施形態においては、メモリ8に立体眼底画像を処理する立体眼底画像処理方法がプログラムとして記憶されており、演算・解析部2により該プログラムを実行できるようになっている。   Reference numeral 10 denotes a stereoscopic fundus image display device that displays a stereoscopic fundus image to an observer based on stereo image data captured by the stereoscopic fundus camera 7. As the configuration of the display device 10, for example, as shown in FIG. 1, a display 11 that alternately displays fundus images for the right eye and left eye of an observer in a predetermined cycle, and a left and right display in conjunction with the display 11. A configuration using liquid crystal shutter glasses 12 (which are attached to an observer) in which the shutter portions of the shutters are alternately opened and closed is conceivable. In the present embodiment, a three-dimensional fundus image processing method for processing a three-dimensional fundus image is stored as a program in the memory 8 so that the calculation / analysis unit 2 can execute the program.

以下に、処理装置1において、演算・解析部2により眼底画像の処理を行う場合について、図2のフローチャートを用いて説明する。まず、メモリ8にステレオ画像デ−タ(図3参照)を記憶する。そして、演算・解析部2は、記憶されたステレオ画像デ−タに対して視差、結像倍率、収差等の歪みによる補正を加え、補正されたステレオ画像デ−タにステレオ・マッチングの処理を施し、これに基づいて眼底の三次元データを得る。ステレオ・マッチング処理については、特開平2000−126134号公報によるものを使用できる。   Hereinafter, in the processing apparatus 1, a case where the fundus image is processed by the calculation / analysis unit 2 will be described with reference to the flowchart of FIG. First, stereo image data (see FIG. 3) is stored in the memory 8. Then, the calculation / analysis unit 2 applies correction by distortion such as parallax, imaging magnification, aberration, etc. to the stored stereo image data, and performs stereo matching processing on the corrected stereo image data. Based on this, three-dimensional data of the fundus is obtained. As the stereo matching process, the one disclosed in Japanese Patent Laid-Open No. 2000-126134 can be used.

ここで、眼底のステレオ画像からの眼底の三次元データを取得する方法について簡単に説明しておく(図4参照)。
STEP1では、画像部分とそれ以外の部分を分離、認識するための背景分離処理を行う。具体的には、図3に示すように、入力された画像データのXY方向(横方向と縦方向)のそれぞれについて濃度値の積分処理を行った後、得られた積分値に対して閾値SLを設け、この閾値SLより高い濃度値の部分を画像部分として認識する。
STEP2では、撮影眼の屈折力等による視差(画像ずれ)を測定する。背景分離によって得られた眼底ステレオ画像の左画像IMLと右画像IMRに対してその縦方向又は横方向の少なくとも1方向の濃度情報を積分した積分データを求め、該積分データをさらに微分して求めた微分データに基づいて視差情報を測定する(図5参照)。なお、図5において、左右画像IML、IMRの微分値をそれぞれDfXL、DfXR、DfYL、DfYRとする。
STEP3では、以降のSTEP5の対応点抽出処理で使用する左右画像領域を切り出す処理を行う。具体的には、STEP2により得られた縦方向及び横方向の視差(画像ずれ量)に基づいて左画像IMLあるいは右画像IMRのみにしか撮影されていない部分を除外し、以降の対応点抽出処理に使用する左画像領域IML′及び右画像領域IMR′が対応するように切り出す。このように視差の影響を除去した左右画像を切り出すことにより、対応点抽出を容易にすることができる。
STEP4では、切り出した左右画像IML′、IMR′に重畳するノイズを低減するため、メディアン・フィルタ(中間値フィルタ)等のノイズ除去フィルタによりノイズ除去処理を行う。
STEP5では、切り出し処理を行った左右画像IML′、IMR′から対応点抽出処理を行う。この場合、本実施形態のように、切り出し処理を行った左右画像IML′、IMR′に対して、順次解像度を落とした複数の画像(多重解像度像)を作成し、解像度の低い左右画像から次第に対応点を抽出するようにすると、処理時間を短くすることができる。
STEP6では、STEP5により抽出された対応点情報に基づいて高さ情報を算出して、三次元データの生成を行う。三次元データの生成には既知の共線条件式を用いることができ、STEP2で得られた視差情報から撮影眼の屈折力に影響する倍率を補正して実際の三次元データとする。この補正のための倍率は、予め視差(ずれ量)と補正倍率との関係のテーブルを記憶させておけば容易に得ることができる。
Here, a method for acquiring three-dimensional fundus data from a stereo image of the fundus will be briefly described (see FIG. 4).
In STEP 1, background separation processing is performed to separate and recognize the image portion and the other portions. Specifically, as shown in FIG. 3, density value integration processing is performed for each of the input image data in the XY directions (horizontal direction and vertical direction), and then a threshold SL is applied to the obtained integrated value. And a portion having a density value higher than the threshold SL is recognized as an image portion.
In STEP 2, the parallax (image shift) due to the refractive power of the photographing eye is measured. Integral data obtained by integrating density information in at least one direction of the vertical direction or the horizontal direction with respect to the left image IM L and the right image IM R of the fundus stereo image obtained by the background separation is obtained, and the integrated data is further differentiated. The parallax information is measured based on the differential data obtained in this way (see FIG. 5). In FIG. 5, the left and right images IM L, IM R respectively Df XL the differential value of, Df XR, Df YL, and Df YR.
In STEP 3, the left and right image areas used in the corresponding point extraction process in STEP 5 are cut out. Specifically, based on the vertical and horizontal parallaxes (image shift amounts) obtained in STEP 2, the portions that are captured only in the left image IM L or the right image IM R are excluded, and the corresponding points thereafter The left image area IM L ′ and the right image area IM R ′ used for the extraction process are cut out so as to correspond. Thus, by extracting the left and right images from which the influence of parallax is removed, it is possible to easily extract the corresponding points.
In STEP 4, in order to reduce noise superimposed on the cut left and right images IM L ′ and IM R ′, noise removal processing is performed by a noise removal filter such as a median filter (intermediate value filter).
In STEP 5, corresponding point extraction processing is performed from the left and right images IM L ′ and IM R ′ that have been subjected to the clipping processing. In this case, as in this embodiment, a plurality of images (multi-resolution images) with sequentially reduced resolutions are created for the left and right images IM L ′ and IM R ′ that have been subjected to the clipping process, and the left and right images with low resolution are created. If the corresponding points are gradually extracted from the processing time, the processing time can be shortened.
In STEP 6, height information is calculated based on the corresponding point information extracted in STEP 5, and three-dimensional data is generated. A known collinear conditional expression can be used to generate the three-dimensional data, and the magnification that affects the refractive power of the photographing eye is corrected from the parallax information obtained in STEP 2 to obtain actual three-dimensional data. The magnification for this correction can be easily obtained by storing a table of the relationship between the parallax (deviation amount) and the correction magnification in advance.

次に、得られた眼底の三次元データを基に眼底の凹凸に対応した補助線データを演算処理により求める(図2参照)。なお、本実施形態においては、補助線としてステレオ画像データに対して各深さレベル毎に等高線を付加する場合について説明する。
眼底の三次元データが得られると、演算・解析部2は、正面から見たときの平面画像をディスプレイ5に表示する。ここで、オペレータは、表示された平面画像を基にステレオ画像データに対して等高線を付加する領域を指定する。例えば、等高線を付加する領域を指定するためのポインタが表示されるので、マウス4の操作によりポインタを移動し、クリックしていくことによりその領域を指定していく。このとき、例えば、眼底の乳頭付近を指定するような場合が考えられる。また、画像データの全範囲を指定するようにしてもよい。
Next, auxiliary line data corresponding to the unevenness of the fundus is obtained by arithmetic processing based on the obtained three-dimensional data of the fundus (see FIG. 2). In the present embodiment, a case will be described in which contour lines are added to the stereo image data for each depth level as auxiliary lines.
When the fundus three-dimensional data is obtained, the calculation / analysis unit 2 displays a planar image on the display 5 when viewed from the front. Here, the operator designates a region to which contour lines are added to the stereo image data based on the displayed planar image. For example, since a pointer for designating a region to which a contour line is added is displayed, the pointer is moved by operating the mouse 4, and the region is designated by clicking. At this time, for example, a case where the vicinity of the nipple of the fundus is designated can be considered. Further, the entire range of the image data may be designated.

等高線を付加する領域の指定ができたら、オペレータはマウスにより、演算・解析部2に指定領域内における最低点(最深点)の位置を求める解析処理の実行を指令する。これにより、演算・解析部2は、指定領域内における眼底の三次元データから最低点を見つけ出し、その位置を求める。この場合、演算・解析部2は、指定領域内の重心位置を求めておき、その重心位置を中心として所定の検出角度ごと(例えば、1度ごと)の各断面ごとの最低点を求めることにより、各断面ごとの最低点の中での最も低い点とその位置を求めるような処理を行うようにしてもよい。   When the region to which the contour line is added can be designated, the operator instructs the calculation / analysis unit 2 to execute the analysis process for obtaining the position of the lowest point (the deepest point) in the designated region by using the mouse. As a result, the calculation / analysis unit 2 finds the lowest point from the three-dimensional data of the fundus within the designated region and obtains the position thereof. In this case, the calculation / analysis unit 2 obtains the center of gravity position in the designated area, and obtains the lowest point for each cross section for each predetermined detection angle (for example, every 1 degree) around the center of gravity position. Alternatively, a process for obtaining the lowest point and its position among the lowest points for each cross section may be performed.

次に、演算・解析部2は、求められた最低点から予め設定した深さレベル(例えば、最低点から150μmステップ)に相当する点の位置をプロットしていく。図6は、ある断面において最低点から予め設定した深さレベルに相当する点の位置をプロットしたときの図である。このようにして各断面毎にプロットを行った後、これらの点を各レベルごとに繋ぎあわせてみると、図7のような等高線が作成される。なお、図7において、L1、L2、L3、L4は、順に、最低点から150μm、300μm、450μm、600μmの距離における等高線を示す。このようにして作成された等高線は、最低点から等しい高さを持つ点の集合であって、これにより一定の深さレベルにおける眼底形状が表現される。   Next, the calculation / analysis unit 2 plots the position of a point corresponding to a preset depth level (for example, 150 μm steps from the lowest point) from the determined lowest point. FIG. 6 is a diagram when the position of a point corresponding to a preset depth level from the lowest point in a certain cross section is plotted. After plotting for each cross section in this way, when connecting these points for each level, contour lines as shown in FIG. 7 are created. In FIG. 7, L1, L2, L3, and L4 indicate contour lines in the order of 150 μm, 300 μm, 450 μm, and 600 μm in order from the lowest point. The contour lines created in this way are a set of points having the same height from the lowest point, and this represents the fundus shape at a certain depth level.

次に、演算・解析部2は、左右一対のステレオ画像デ−タに対して上記のように演算処理された各深さレベル毎の等高線データを付加する。すなわち、求めた等高線データと前記左右一対のステレオ画像データとを合わせる。ここで、左右一対のステレオ画像データと、該ステレオ画像データに所定の処理を施すことに得られた眼底の3次元データとの座標位置の対応関係は既知であるから、演算・解析部2は、作成された等高線データの座標位置に基づいて左右一対のステレオ画像データに対して演算処理により眼底の三次元的な形状を表す等高線を付加することができる(図8参照)。   Next, the calculation / analysis unit 2 adds contour line data for each depth level, which has been calculated as described above, to the pair of left and right stereo image data. That is, the obtained contour line data and the pair of left and right stereo image data are combined. Here, since the correspondence between the coordinate positions of the pair of left and right stereo image data and the three-dimensional fundus data obtained by performing predetermined processing on the stereo image data is known, the calculation / analysis unit 2 Based on the coordinate position of the generated contour line data, contour lines representing the three-dimensional shape of the fundus can be added to the pair of left and right stereo image data by arithmetic processing (see FIG. 8).

その後、上記演算処理により等高線データの付加された左右一対のステレオ画像データは、立体眼底像表示装置10へと送信され、表示装置10により等高線付きの立体眼底画像として観察者に表示される。ここで、表示装置10に表示された立体眼底画像を観察した場合、観察者は、立体眼底像と共に所定の深さレベルごとに付加された等高線を観察することができる。これにより、観察者は、等高線を目安として立体眼底像を観察できるため、正確に奥行き感(立体感)を認識することができ緑内障等の診断において有用となる。特に、被検眼眼底の乳頭付近を診断する場合において有用といえる。   Thereafter, the pair of left and right stereo image data to which the contour line data is added by the arithmetic processing is transmitted to the stereoscopic fundus image display device 10 and displayed to the observer as a stereoscopic fundus image with contour lines by the display device 10. Here, when the stereoscopic fundus image displayed on the display device 10 is observed, the observer can observe the contour lines added for each predetermined depth level together with the stereoscopic fundus image. Thereby, the observer can observe the stereoscopic fundus image with the contour line as a guideline, and thus can accurately recognize a sense of depth (stereoscopic effect), which is useful in diagnosing glaucoma and the like. This is particularly useful when diagnosing the vicinity of the nipple of the fundus of the eye to be examined.

すなわち、立体眼底像の観察においては、観察者によって奥行き感の感じ方が異なる場合があり、例えば観察者によっては立体眼底像に対して過度の奥行き感を感じることもある。より具体的には、乳頭の陥凹部分がむやみに奥行きを持ったように観察されることにより、実際の乳頭の陥凹よりも大きな深さをもった被検眼であると間違えてしまうようなことが考えられる。このような場合において、本実施形態によれば、観察者は、等高線の間隔の広がり方等から立体眼底像を過度に奥行きをもった状態で観察していることを確認できるため、これを目安として適切な診断を行うことができる。なお、上記の例においては、視神経乳頭の陥凹をより正確に観察することができる。   That is, in the observation of the stereoscopic fundus image, the way of feeling the depth may differ depending on the observer. For example, depending on the observer, an excessive depth may be felt with respect to the stereoscopic fundus image. More specifically, by observing the recessed portion of the nipple as if having an unnecessarily deep depth, it would be mistaken for the eye to be examined to have a depth greater than the actual nipple recess. It is possible. In such a case, according to the present embodiment, the observer can confirm that the stereoscopic fundus image is observed in an excessively deep state based on how the interval between the contour lines spreads. As such, an appropriate diagnosis can be made. In the above example, the depression of the optic nerve head can be observed more accurately.

なお、本実施形態において、各深さレベル毎の等高線の色をそれぞれ異なるようにしてもよい。例えば、L1を白、L2を青、L3を黄、L4を赤とするように線の色を変えるようなことが考えられる。このようにすれば、観察者は、等高線の色によって深さレベルが分かるので、診断が容易となる。   In the present embodiment, the color of the contour line for each depth level may be different. For example, the line color may be changed so that L1 is white, L2 is blue, L3 is yellow, and L4 is red. In this way, the observer can know the depth level by the color of the contour lines, so that diagnosis is easy.

なお、本実施形態においては、指定領域内の最低点を基に等高線を付与するような構成としたが、これに限るものではない。例えば、最高点を基準としてもよいし、カップ縁の高さを基準としてもよい。また、等高線を付与するための基準位置を任意に選択できるようにしてもよい。   In the present embodiment, the contour line is provided based on the lowest point in the designated area. However, the present invention is not limited to this. For example, the highest point may be used as a reference, or the height of the cup edge may be used as a reference. In addition, a reference position for applying a contour line may be arbitrarily selected.

なお、本実施形態においては、ステレオ画像データに付加する補助線データとして、所定の深さレベルごとの等高線データを付加するような構成としたが、これに限るものではなく、眼底のある断面における深さレベル(形状)を表すようなグリット線を付加するようにしてもよい。例えば、演算・解析部2により得られた眼底の三次元データから縦方向及び横方向の中間位置における眼底の断面形状を求めておき、これに基づいて左右一対のステレオ画像データに対してグリット線を付加するような構成が考えられる。図9は、眼底画像を縦及び横に二分したときの断面形状を表すグリット線Gを、立体眼底像と合わせて表示装置10に表示したときの模式図である。このようにすれば、観察者は、眼底のある断面における形状が分かりやすく、立体眼底像の観察が容易になる。また、奥行き感を感じやすくなる。この場合、複数位置で眼底の断面形状を表現するメッシュ状(網目状)のグリット線を表示するような構成としてもよい。   In the present embodiment, contour line data for each predetermined depth level is added as auxiliary line data to be added to stereo image data. However, the present invention is not limited to this. A grid line representing a depth level (shape) may be added. For example, the cross-sectional shape of the fundus at an intermediate position in the vertical direction and the horizontal direction is obtained from the three-dimensional fundus data obtained by the calculation / analysis unit 2, and based on this, a grid line is obtained for a pair of left and right stereo image data. A configuration in which is added can be considered. FIG. 9 is a schematic diagram when a grid line G representing a cross-sectional shape when the fundus image is divided into two vertically and horizontally is displayed on the display device 10 together with the stereoscopic fundus image. In this way, the observer can easily understand the shape of the cross-section with the fundus and can easily observe the stereoscopic fundus image. Moreover, it becomes easy to feel a sense of depth. In this case, a mesh-like (mesh-like) grid line expressing the cross-sectional shape of the fundus at a plurality of positions may be displayed.

また、等高線を付加する領域を指定したときと同様に、グリット線を付加する領域を任意に指定できるようにしてもよい。この場合、例えば、マウス4等の操作によりディスプレイ5に表示された平面画像上に線を引き、線が引かれた領域における断面形状を求めることにより、指定された領域における断面形状を表すグリット線を左右一対のステレオ画像データに対して付加するような構成が考えられる。   Further, as in the case where the area to which the contour line is added is designated, the area to which the grid line is added may be arbitrarily designated. In this case, for example, by drawing a line on the planar image displayed on the display 5 by operating the mouse 4 or the like, and obtaining the cross-sectional shape in the region where the line is drawn, a grid line representing the cross-sectional shape in the designated region Is considered to be added to a pair of left and right stereo image data.

また、演算・解析部2によるステレオ画像の解析によりカップ縁(乳頭陥凹の縁)の位置を検出し、検出結果に基づいてカップ縁を表現する補助線をステレオ画像データに対して付加するようにしてもよい。このようにすれば、立体眼底画像観察において、観察者は、カップとディスクの距離比であるC/D比やカップ縁内の面積等の把握することが容易となる。   Further, the position of the cup edge (edge of the nipple recess) is detected by analyzing the stereo image by the calculation / analysis unit 2, and an auxiliary line representing the cup edge is added to the stereo image data based on the detection result. It may be. In this way, in the stereoscopic fundus image observation, the observer can easily grasp the C / D ratio, which is the distance ratio between the cup and the disk, the area within the cup edge, and the like.

なお、本実施形態においては、表示装置10により観察者に補助線付き立体眼底画像を示すような構成としたが、これに限るものではない。例えば、補助線を付加したステレオ画像データをプリンタ6により印刷し、印刷した画像を周知のステレオビュアーに貼り付けることにより補助線付き立体眼底画像を観察するようにしてもよい。   In the present embodiment, the display device 10 is configured to show the stereoscopic fundus image with auxiliary lines to the observer, but the present invention is not limited to this. For example, stereo image data with an auxiliary line added may be printed by the printer 6, and the printed image may be pasted on a known stereo viewer to observe the stereoscopic fundus image with the auxiliary line.

また、表示装置10により補助線を付加した立体眼底画像を表示する場合、所定の選択スイッチにより、補助線を表示するか否かをできるようにしてもよい。このようにすれば、検者の任意の操作により、補助線の表示と非表示を切換えることができ、都合がよい。   Further, when displaying a stereoscopic fundus image with an auxiliary line added by the display device 10, it may be possible to determine whether or not to display the auxiliary line with a predetermined selection switch. In this way, the auxiliary line can be switched between display and non-display by any operation of the examiner, which is convenient.

実施形態に係る装置のブロック構成図である。It is a block block diagram of the apparatus which concerns on embodiment. 演算・解析部により眼底画像の処理を行う場合について説明するフローチャートである。It is a flowchart explaining the case where a fundus image is processed by an arithmetic / analysis unit. 左右一対の眼底ステレオ画像データについて説明する図である。It is a figure explaining a pair of right and left fundus stereo image data. 眼底のステレオ画像からの眼底の三次元データを取得する方法について説明するフローチャートである。It is a flowchart explaining the method to acquire the three-dimensional data of the fundus from the stereo image of the fundus. 撮影眼の屈折力等による視差(画像ずれ)を測定する場合について説明するである。It is a case where parallax (image shift) due to refractive power of a photographing eye or the like is measured. ある断面において最低点から予め設定した深さレベルに相当する点の位置をプロットしたときの図である。It is a figure when the position of the point corresponding to the preset depth level is plotted from the lowest point in a certain cross section. 作成された等高線を示す図である。It is a figure which shows the created contour line. 左右一対のステレオ画像データに対して演算処理により眼底の三次元的な形状を表す等高線を付加したときのである。This is when contour lines representing the three-dimensional shape of the fundus are added to the pair of left and right stereo image data by arithmetic processing. 眼底画像を縦及び横に二分したときの断面形状を表すグリット線Tを、立体眼底像と合わせて表示装置に表示したときの模式図である。It is a schematic diagram when a grid line T representing a cross-sectional shape when the fundus image is divided into two vertically and horizontally is displayed on the display device together with the stereoscopic fundus image.

符号の説明Explanation of symbols

1 処理装置
2 演算・解析部
5 ディスプレイ
6 プリンタ
7 デジタル立体眼底カメラ
8 メモリ
10 立体眼底画像表示装置
L1、L2、L3、L4 等高線
G グリット線
DESCRIPTION OF SYMBOLS 1 Processing apparatus 2 Calculation / analysis part 5 Display 6 Printer 7 Digital stereo fundus camera 8 Memory 10 Stereo fundus image display apparatus L1, L2, L3, L4 Contour line G Grid line

Claims (5)

立体眼底カメラにより撮影された左右一対のステレオ画像データを記憶する第一ステップと、該第一ステップにて記憶された左右一対のステレオ画像データに基づいて眼底の3次元データを得る第二ステップと、得られた眼底の3次元データを基に眼底の凹凸に対応した補助線データを演算処理により求める第三ステップと、該第三ステップにて求めた補助線データと前記左右一対のステレオ画像データとを合わせて補助線付き立体眼底画像として観察者に示す第四ステップと、を備えることを特徴とする立体眼底画像処理方法。 A first step of storing a pair of left and right stereo image data photographed by a stereoscopic fundus camera; a second step of obtaining three-dimensional fundus data based on the pair of left and right stereo image data stored in the first step; A third step of obtaining auxiliary line data corresponding to the unevenness of the fundus based on the obtained three-dimensional data of the fundus by arithmetic processing, the auxiliary line data obtained in the third step, and the pair of left and right stereo image data And a fourth step shown to the observer as a stereoscopic fundus image with an auxiliary line, and a stereoscopic fundus image processing method. 請求項1の立体眼底画像処理方法において、前記第三ステップは前記補助線データとして眼底の3次元データを基に眼底の三次元的な形状を表す等高線を求めるステップであることを特徴とする立体眼底画像処理方法。 3. The three-dimensional fundus image processing method according to claim 1, wherein the third step is a step of obtaining contour lines representing a three-dimensional shape of the fundus based on the three-dimensional fundus data as the auxiliary line data. Fundus image processing method. 請求項1の立体眼底画像処理方法において、前記第三ステップは前記補助線データとして眼底の3次元データを基に深さレベルを表すグリット線を作成する第三ステップであることを特徴とする立体眼底画像処理方法。 3. The three-dimensional fundus image processing method according to claim 1, wherein the third step is a third step of creating a grid line representing a depth level based on three-dimensional fundus data as the auxiliary line data. Fundus image processing method. 請求項1〜3のいずれかの立体眼底画像処理方法をプログラムとして記憶する記憶手段と、該記憶手段に記憶された前記プログラムを実行するプログラム実行手段とを有する立体眼底画像処理装置。 A stereoscopic fundus image processing apparatus comprising: storage means for storing the stereoscopic fundus image processing method according to claim 1 as a program; and program execution means for executing the program stored in the storage means. 請求項4の立体眼底画像表示装置において、前記立体眼底画像の表示時に、前記補助線を表示するか否かを選択する選択手段を設けたことを特徴とする立体眼底画像表示装置。




5. The stereoscopic fundus image display apparatus according to claim 4, further comprising selection means for selecting whether to display the auxiliary line when displaying the stereoscopic fundus image.




JP2005096541A 2005-03-29 2005-03-29 Stereoscopic fundus image processing method and processing apparatus Expired - Fee Related JP4699064B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005096541A JP4699064B2 (en) 2005-03-29 2005-03-29 Stereoscopic fundus image processing method and processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005096541A JP4699064B2 (en) 2005-03-29 2005-03-29 Stereoscopic fundus image processing method and processing apparatus

Publications (2)

Publication Number Publication Date
JP2006271739A true JP2006271739A (en) 2006-10-12
JP4699064B2 JP4699064B2 (en) 2011-06-08

Family

ID=37207050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005096541A Expired - Fee Related JP4699064B2 (en) 2005-03-29 2005-03-29 Stereoscopic fundus image processing method and processing apparatus

Country Status (1)

Country Link
JP (1) JP4699064B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007252707A (en) * 2006-03-24 2007-10-04 Gifu Univ Image analysis apparatus and program
JP2008200378A (en) * 2007-02-22 2008-09-04 Gifu Univ Image processing system
JP2009022308A (en) * 2007-07-17 2009-02-05 Kowa Co Image processing apparatus
EP2272419A1 (en) * 2009-07-08 2011-01-12 Kowa Company, Ltd. Unit for obtaining and displaying fundus image
JP2011030689A (en) * 2009-07-31 2011-02-17 Nidek Co Ltd Fundus photographing system and method for processing three-dimensional fundus image
JP2017012535A (en) * 2015-07-02 2017-01-19 株式会社トプコン Ophthalmic microscope

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63183041A (en) * 1987-01-26 1988-07-28 キヤノン株式会社 Surface examination apparatus
JPH05199999A (en) * 1992-01-29 1993-08-10 Canon Inc Scanning type fundus camera
JP2000126134A (en) * 1998-10-29 2000-05-09 Nidek Co Ltd Fundus oculi measuring device, and recording medium on which fundus oculi measurement program is recorded
JP2000157491A (en) * 1998-11-25 2000-06-13 Nikon Corp Optometric device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63183041A (en) * 1987-01-26 1988-07-28 キヤノン株式会社 Surface examination apparatus
JPH05199999A (en) * 1992-01-29 1993-08-10 Canon Inc Scanning type fundus camera
JP2000126134A (en) * 1998-10-29 2000-05-09 Nidek Co Ltd Fundus oculi measuring device, and recording medium on which fundus oculi measurement program is recorded
JP2000157491A (en) * 1998-11-25 2000-06-13 Nikon Corp Optometric device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007252707A (en) * 2006-03-24 2007-10-04 Gifu Univ Image analysis apparatus and program
JP2008200378A (en) * 2007-02-22 2008-09-04 Gifu Univ Image processing system
JP2009022308A (en) * 2007-07-17 2009-02-05 Kowa Co Image processing apparatus
EP2272419A1 (en) * 2009-07-08 2011-01-12 Kowa Company, Ltd. Unit for obtaining and displaying fundus image
JP2011030689A (en) * 2009-07-31 2011-02-17 Nidek Co Ltd Fundus photographing system and method for processing three-dimensional fundus image
JP2017012535A (en) * 2015-07-02 2017-01-19 株式会社トプコン Ophthalmic microscope

Also Published As

Publication number Publication date
JP4699064B2 (en) 2011-06-08

Similar Documents

Publication Publication Date Title
JP6103827B2 (en) Image processing apparatus and stereoscopic image observation system
JP5780865B2 (en) Image processing apparatus, imaging system, and image processing system
JP4657313B2 (en) Stereoscopic image display apparatus and method, and program
US20160014328A1 (en) Image processing device, endoscope apparatus, information storage device, and image processing method
JP5284731B2 (en) Stereoscopic image display system
JP4699064B2 (en) Stereoscopic fundus image processing method and processing apparatus
US10327627B2 (en) Use of plenoptic otoscope data for aiding medical diagnosis
JP2010171646A (en) Signal processing device, image display device, signal processing method, and computer program
JP3798161B2 (en) Fundus measurement device and recording medium recording fundus measurement program
US20150257628A1 (en) Image processing device, information storage device, and image processing method
JP2012160039A (en) Image processor, stereoscopic image printing system, image processing method and program
JP2008220617A (en) Image analysis system and program
JP5438082B2 (en) Display device and display method
US6893128B2 (en) Unit for obtaining and displaying fundus image
JP2008154950A (en) Fundus image processing device, ophthalmography device and program
EP2373045A1 (en) Medical image generating apparatus, medical image display apparatus, medical image generating method and program
JP2008173216A (en) Ultrasonic diagnostic apparatus
JP2012257105A (en) Stereoscopic image obtaining apparatus
JP2008237840A (en) Image analysis system and image analysis program
JP2006013851A (en) Imaging display device, and imaging display method
JP2000245700A (en) Instrument for measuring eyeground and recording medium for recording measurement program
JP2013245998A (en) Tissue distribution computing method
JP2012065851A (en) Multi-view auto-stereoscopic endoscope system
JP5642561B2 (en) House change interpretation support device, house change interpretation support method, and house change interpretation support program
JP5027624B2 (en) Image processing method and image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101227

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110302

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees