JP2023004247A - Visual inspection device and program - Google Patents

Visual inspection device and program Download PDF

Info

Publication number
JP2023004247A
JP2023004247A JP2021105827A JP2021105827A JP2023004247A JP 2023004247 A JP2023004247 A JP 2023004247A JP 2021105827 A JP2021105827 A JP 2021105827A JP 2021105827 A JP2021105827 A JP 2021105827A JP 2023004247 A JP2023004247 A JP 2023004247A
Authority
JP
Japan
Prior art keywords
subject
information
fixation
visual
fixation target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021105827A
Other languages
Japanese (ja)
Inventor
亮 朝岡
Ryo Asaoka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2021105827A priority Critical patent/JP2023004247A/en
Publication of JP2023004247A publication Critical patent/JP2023004247A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

To provide a visual inspection device capable of acquiring an objective inspection result relatively easily.SOLUTION: There is provided a visual inspection device for detecting information on a fixation point of the eye of a subject viewing a predetermined fixation target that is presented, estimating information on the eye-sight of the subject on the basis of the detected information on the fixation point of the subject, and outputting the estimated information.SELECTED DRAWING: Figure 1

Description

本発明は、ヒトの視覚を検査する視覚検査装置及びプログラムに関する。 The present invention relates to a visual inspection apparatus and program for inspecting human vision.

従来、人間の視力の検査では、検査の対象者である被験者から所定の距離をおいた場所でランドルト環等の視標を呈示し、被験者にその特徴(例えばランドルト環の切れ目の方向など)を答えさせる方法が利用されてきた。 Conventionally, in a human visual acuity test, a visual target such as the Landolt's ring is presented at a predetermined distance from the subject who is the subject of the test, and the subject is shown its characteristics (for example, the direction of the break in the Landolt's ring). methods of answering have been used.

特開2006-167276号公報JP 2006-167276 A

しかしながら上記従来の視力等の検査の方法では、視標の特徴を答えることができる年齢に達していることが条件であり、また被験者が、呈示され得るランドルト環の切れ目の方向を予め記憶しておくなどの方法で自らの視力を偽る場合があるなど、検査の条件や、その結果の客観性などに問題があった。 However, in the above-described conventional methods for testing visual acuity, etc., it is a condition that the subject is old enough to answer the characteristics of the visual target, and the subject has previously memorized the direction of the break in the Landolt's ring that can be presented. There were problems with the conditions of the examination and the objectivity of the results, such as the fact that there were cases where the eyesight was falsified by methods such as placing the eye on the eye.

なお、特許文献1には、8つの方向のいずれかの方向に移動する動画像を被験者に呈示し、その回答を固視微動の推定処理に供する例が開示されている。 Note that Patent Literature 1 discloses an example in which a subject is presented with a moving image that moves in one of eight directions, and the response is used for estimation processing of involuntary eye movement.

本発明は上記実情に鑑みて為されたもので、比較的簡便に、客観性のある検査結果を得ることのできる、視覚検査装置及びプログラムを提供することを、その目的の一つとする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a visual inspection apparatus and program capable of relatively easily obtaining objective inspection results.

上記従来例の問題点を解決する本発明の一態様は、視覚検査装置であって、呈示された所定の固視標を見る被験者の目の固視点を、所定のタイミングごとに繰り返し取得する固視点取得手段と、前記取得された被験者の固視点の情報に基づいて、当該被験者の視覚に関する情報の推定を行う推定手段と、当該推定した情報を出力する手段と、を含む。 One aspect of the present invention that solves the problems of the conventional example is a visual inspection apparatus that repeatedly acquires the fixation point of the eye of a subject looking at a given fixed target presented at predetermined timing. The apparatus includes viewpoint acquisition means, estimation means for estimating information related to the subject's vision based on the acquired information about the subject's fixation point, and means for outputting the estimated information.

本発明によると、比較的簡便に、客観性のある検査結果を得ることが可能となる。 According to the present invention, it is possible to obtain objective test results relatively easily.

本発明の実施の形態に係る視覚検査装置の例を表す構成ブロック図である。1 is a configuration block diagram showing an example of a visual inspection device according to an embodiment of the present invention; FIG. 本発明の実施の形態に係る視覚検査装置の例を表す機能ブロック図である。1 is a functional block diagram showing an example of a visual inspection device according to an embodiment of the present invention; FIG. 本発明の実施の形態に係る視覚検査装置による視力の推定処理に関わる説明図である。FIG. 4 is an explanatory diagram relating to visual acuity estimation processing by the visual inspection apparatus according to the embodiment of the present invention; 本発明の実施の形態に係る視覚検査装置による視野の推定処理に関わる説明図である。FIG. 4 is an explanatory diagram relating to visual field estimation processing by the visual inspection apparatus according to the embodiment of the present invention;

本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る視覚検査装置1は、図1に例示するように、制御部11と、記憶部12と、操作部13と、表示部14と、インタフェース部15とを含んで構成され、インタフェース部15を介して、固視点検出器2に接続されている。 An embodiment of the present invention will be described with reference to the drawings. A visual inspection apparatus 1 according to an embodiment of the present invention includes a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, and an interface unit 15, as illustrated in FIG. and connected to the fixation point detector 2 via the interface unit 15 .

本実施の形態の一例では、この固視点検出器2は、検査の対象者である被験者の目を、所定のタイミングごと(例えばサンプリング周波数を800Hzとした場合1/800秒に1回の定期的なタイミングごと)に繰り返し撮像して動画像データとして出力する。 In one example of the present embodiment, the fixation point detector 2 detects the eyes of the subject to be examined at predetermined timings (for example, when the sampling frequency is 800 Hz, periodically every 1/800 second). The image is captured repeatedly at each appropriate timing) and output as moving image data.

また本実施の形態の別の例では、この固視点検出器2は、カメラとプログラム制御デバイスとを含んで構成され、カメラが1/800秒に1回のタイミングごとにフレームを撮像して得た動画像データの各フレームから、目(左目または右目)の眼球の位置を検出し、当該検出した眼球の位置に関する情報を出力する。この眼球の位置の情報は例えば、フレームの座標情報における瞳の中心座標などとして表すことができる。 In another example of the present embodiment, the fixation point detector 2 includes a camera and a program control device, and the camera captures a frame once every 1/800th of a second. The position of the eyeball (left eye or right eye) is detected from each frame of the moving image data, and information on the detected eyeball position is output. This eyeball position information can be expressed, for example, as the center coordinates of the pupil in the coordinate information of the frame.

視覚検査装置1の制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態の一例では、この制御部11は、呈示された所定の固視標を見る被験者の目の固視点に係る情報を取得し、当該取得した固視点に係る情報に基づいて、当該対象者の視覚に関する情報(例えば視力を表す値や視野に関する情報)の推定を行って、当該推定の結果である情報を出力する。この制御部11の詳しい動作は後に説明する。 The control unit 11 of the visual inspection apparatus 1 is a program control device such as a CPU, and operates according to programs stored in the storage unit 12 . In one example of the present embodiment, the control unit 11 acquires information related to the fixation point of the eye of the subject looking at the presented predetermined fixation target, and based on the acquired information related to the fixation point, Information about vision of the subject (for example, a value representing visual acuity and information about visual field) is estimated, and information as a result of the estimation is output. The detailed operation of this control section 11 will be described later.

記憶部12は、メモリデバイスやディスクデバイス等であり、制御部11によって実行されるプログラムを保持する。この記憶部12は、また、制御部11のワークメモリとしても動作する。 The storage unit 12 is a memory device, a disk device, or the like, and holds programs executed by the control unit 11 . This storage unit 12 also operates as a work memory for the control unit 11 .

操作部13は、キーボードや、マウス等を含み、ユーザの操作を受け入れて、当該操作の内容を表す情報を制御部11に出力する。表示部14は、ディスプレイ等であり、制御部11から入力される指示に従って情報を表示出力する。本実施の形態の一例ではこの表示部14は、被験者が視認する画像を表示する被験者用表示部141と、ユーザ(検査を行う検査者)に対して画像を表示するユーザ用表示部142とを含んでもよい。つまり、本実施の形態の一例ではディスプレイは複数あってもよい。 The operation unit 13 includes a keyboard, a mouse, and the like, receives user operations, and outputs information representing the content of the operations to the control unit 11 . The display unit 14 is a display or the like, and displays and outputs information according to instructions input from the control unit 11 . In one example of the present embodiment, the display unit 14 includes a subject display unit 141 that displays an image visually recognized by the subject, and a user display unit 142 that displays the image to the user (examiner who performs the examination). may contain. That is, in one example of this embodiment, there may be a plurality of displays.

インタフェース部15は、USBインタフェース等であり、本実施の形態の一例では、固視点検出器2に接続され、固視点検出器2から画像のデータ(一連の静止画像を含む動画像データ)の入力を受け入れて、当該動画像データを制御部11に出力する。 The interface unit 15 is a USB interface or the like, and in one example of the present embodiment, is connected to the fixation point detector 2, and inputs image data (moving image data including a series of still images) from the fixation point detector 2. and outputs the moving image data to the control unit 11 .

ここでの例では、固視点検出器2は、例えば所定の光源と高速度カメラ(サンプリング周波数800Hzのセンサなど)とを用い、被験者となった、ヒトを含む動物の目の画像を所定のタイミングごとに繰り返して撮影し、当該撮影して得た画像のデータ(一連の静止画像(フレーム)を含む動画像データ)を出力するものとする。 In this example, the fixation point detector 2 uses, for example, a predetermined light source and a high-speed camera (such as a sensor with a sampling frequency of 800 Hz) to capture an eye image of an animal, including a human being, at a predetermined timing. It is assumed that an image is repeatedly shot every time, and image data obtained by the shooting (moving image data including a series of still images (frames)) is output.

この固視点検出器2は、一例としては、鈴木一隆ほか,「インテリジェントビジョンセンサを用いた両目同時固視微動計測装置の開発とマイクロサッカードの左右差の評価」,生体医工学,Vol.53, No.5, pp. 247-254, 2015 (DOI:10.11239/jsmbe.53.247)(以下「固視微動に係る文献」と呼ぶ)に記載のものなどがある。尤も、本実施の形態の視覚検査装置1に接続される固視点検出器2は、これに限られるものではない。 For example, this fixation point detector 2 is described in Kazutaka Suzuki et al., "Development of Simultaneous Binocular Fixation Micromovement Measurement Device Using Intelligent Vision Sensor and Evaluation of Left-Right Difference of Microsaccades", Biomedical Engineering, Vol. 53, No.5, pp. 247-254, 2015 (DOI:10.11239/jsmbe.53.247) (hereinafter referred to as "documents related to involuntary eye movement"). However, the fixation point detector 2 connected to the visual inspection apparatus 1 of this embodiment is not limited to this.

次に、本実施の形態の制御部11の動作例について説明する。本実施の形態の制御部11は、固視標呈示部21と、固視点取得部22と、推定部23と、出力部24とを含んで構成される。 Next, an operation example of the control unit 11 of this embodiment will be described. Control section 11 of the present embodiment includes fixation target presentation section 21 , fixation point acquisition section 22 , estimation section 23 , and output section 24 .

固視標呈示部21は、所定の固視標を呈示する。本実施の形態の一例では、この固視標呈示部21は、ユーザから、表示する固視標を指定する操作を受けて、被験者用表示部141に対してユーザにより指定された固視標を表示させて、被験者に対して呈示する。ここでユーザが指定する固視標は、視覚検査装置1が視力を推定する場合には、所定以上の視力を有する被験者が視認可能な像を含む。具体的に以下の説明では、ユーザが指定する固視標は、例えば互いに開口の大きさ(対応する視角)または開口位置の少なくともいずれかが異なる複数のランドルト環の画像から選択されるものとする。もっとも、本実施の形態はこれに限られず、視力の情報を推定する際に用いる固視標は、所定の視角に対応する間隙をおいて配された一対の図形などを用いたものであってもよい。 The fixation target presentation unit 21 presents a predetermined fixation target. In one example of the present embodiment, the fixation target presenting unit 21 receives an operation of designating a fixation target to be displayed from the user, and displays the fixation target designated by the user on the subject display unit 141. Displayed and presented to the subject. Here, the fixation target specified by the user includes an image that can be visually recognized by a subject having a predetermined or higher visual acuity when the visual acuity is estimated by the visual inspection device 1 . Specifically, in the following description, it is assumed that the fixation target specified by the user is selected from a plurality of images of Landolt's rings having at least one of different aperture sizes (corresponding visual angles) and aperture positions. . However, the present embodiment is not limited to this, and the fixation target used when estimating visual acuity information uses a pair of figures arranged with a gap corresponding to a predetermined visual angle. good too.

またここでユーザが指定する固視標は、この視覚検査装置1が視野を推定する場合は、ハンフリー視野計が呈示するものと同様の、視野の中心から30度の範囲内に配された複数の検査点のいずれかに比較的明度の高い画素(以下「輝点」と呼ぶ)を配し、他の画素を比較的明度の低い画素(黒色等)とした画像データとする。いずれの場合も、この固視標である画像データは、静止画像を表す画像データであるものとする。 When the visual field is estimated by the visual inspection apparatus 1, the fixation target specified by the user here is a plurality of targets arranged within a range of 30 degrees from the center of the visual field, similar to those presented by the Humphrey perimeter. A relatively high-brightness pixel (hereinafter referred to as a "bright spot") is arranged at one of the inspection points, and the other pixels are relatively low-brightness pixels (black, etc.). In either case, it is assumed that the image data, which is the fixation target, is image data representing a still image.

すなわち本実施の形態のこの例では、被験者は被験者用表示部141としてのディスプレイ等に表示された画像を固視するものとする。 That is, in this example of the present embodiment, it is assumed that the subject fixes his/her eyes on the image displayed on the display or the like as the subject display section 141 .

固視点取得部22は、固視標呈示部21が固視標の画像を出力している間、つまり、被験者が固視標を見ている間に、インタフェース部15を介して固視点検出器2から入力される情報に基づいて、被験者の眼球位置に対応する画像上の座標の情報(提示された画像上の座標であって、被験者の視線の方向にある点の座標を表す情報、すなわち固視点の情報)を得る。 While the fixation target presenting unit 21 is outputting the image of the fixation target, that is, while the subject is looking at the fixation target, the fixation point acquisition unit 22 detects the fixation point detector via the interface unit 15 . Based on the information input from 2, information on the coordinates on the image corresponding to the eyeball position of the subject (information representing the coordinates on the presented image and the coordinates of the point in the direction of the subject's line of sight, i.e. fixation point information).

具体的にこの固視点取得部22は、固視点検出器2が被験者の左右の目の少なくとも一方を撮像した動画像データを出力するものであるときには、この動画像データを受け入れて、当該動画像データに基づき、撮像された被験者の目(左目または右目の少なくとも一方)の眼球位置を検出する。具体的にこの固視点取得部22は、上記固視微動に係る文献に開示されたものと同様、角膜反射光の移動量に基づいて眼球位置(視線の方向)を表す情報を、固視点検出器2から入力される動画像に含まれる各静止画像から連続的に検出する。 Specifically, when the fixation point detector 2 outputs moving image data obtained by imaging at least one of the left and right eyes of the subject, the fixation point acquiring unit 22 receives the moving image data and obtains the moving image. Based on the data, the eyeball position of the imaged subject's eye (at least one of the left eye and the right eye) is detected. Specifically, the fixation point acquisition unit 22 detects information representing the eyeball position (line-of-sight direction) based on the amount of movement of the corneal reflected light, in the same manner as that disclosed in the literature regarding the above-described fixation point detection. Each still image included in the moving image input from the device 2 is continuously detected.

また固視点取得部22は、固視点検出器2が動画像に含まれる各静止画像から検出した眼球位置の情報を出力しているときには、当該情報を受け入れる。 Further, when the fixation point detector 2 outputs information on the eyeball position detected from each still image included in the moving image, the fixation point acquisition unit 22 accepts the information.

固視点取得部22は、得られた眼球位置の情報に対応する、被験者用表示部141が呈示する画像の座標を逐次的に得る。 The fixation point acquisition unit 22 sequentially acquires the coordinates of the image presented by the subject display unit 141 corresponding to the obtained eyeball position information.

具体的には、この固視点取得部22は、検査前に、被験者用表示部141に予め定められた互いに異なる3つの点を順番に表示して、各点を被験者に固視させ、当該固視させたときの被験者の眼球位置の情報を取得し、被験者用表示部141に表示した各点と、眼球位置の情報との対応関係を表す、アフィン変換のパラメータを取得するといった公知の方法で、眼球位置の情報と、被験者用表示部141が呈示する画像の座標とを関連付けておく。そして固視点取得部22は、上記所定のタイミングごとに撮影された静止画像から検出した左右の目の少なくとも一方の眼球位置の情報に対応する、画像上の座標(Lx(t),Ly(t)),(Rx(t),Ry(t))のうち少なくとも一方を逐次的に得る。ここでtは時刻を表し、Lxは左目の眼球位置の情報に対応する画像上のX座標、Lyは左目の眼球位置の情報に対応する画像上のY座標、Rxは右目の眼球位置の情報に対応する画像上のX座標、Ryは右目の眼球位置の情報に対応する画像上のY座標をそれぞれ表すものとする。固視点取得部22は、この座標の情報を出力する。 Specifically, the fixation point acquisition unit 22 sequentially displays three predetermined points different from each other on the subject display unit 141 before the examination, causes the subject to fixate on each point, and displays the fixation point. By a known method of acquiring information on the eyeball position of the subject when viewed, and acquiring parameters of affine transformation representing the correspondence relationship between each point displayed on the subject display unit 141 and the information on the eyeball position. , eyeball position information and the coordinates of the image presented by the subject display unit 141 are associated with each other. Then, the fixation point acquisition unit 22 obtains coordinates (Lx(t), Ly(t )), (Rx(t), Ry(t)) are sequentially obtained. Here, t represents time, Lx is the X coordinate on the image corresponding to the information on the eyeball position of the left eye, Ly is the Y coordinate on the image corresponding to the information on the eyeball position of the left eye, and Rx is the information on the eyeball position of the right eye. and Ry represents the Y coordinate on the image corresponding to the eyeball position information of the right eye. The fixation point acquisition unit 22 outputs this coordinate information.

推定部23は、固視点取得部22が検出した、被験者の眼球位置に対応する画像上の座標の情報に基づいて、当該被験者の視力または視野の少なくとも一方の推定を行う。具体的にこの推定部23は、次のようにして被験者の視力を推定する。 The estimating unit 23 estimates at least one of the subject's visual acuity and visual field based on the information on the coordinates on the image corresponding to the subject's eyeball position detected by the fixation point acquiring unit 22 . Specifically, the estimation unit 23 estimates the visual acuity of the subject as follows.

以下では、固視点取得部22が被験者の左目の眼球位置に対応する画像上の座標(Lx(t),Ly(t))を、所定のタイミング(例えば1/800秒に一回)ごとに繰り返し出力しているものとする。また、以下の例では、固視標提示部21が提示する固視標の画像には、その特徴的な部分(以下、特徴領域と呼ぶ)として予め定められた座標の範囲を表す情報が関連付けられているものとする。 Below, the fixation point acquisition unit 22 acquires the coordinates (Lx(t), Ly(t)) on the image corresponding to the eyeball position of the subject's left eye at predetermined timing (for example, once every 1/800 second). Assume that the output is repeated. In the following example, the image of the fixation target presented by the fixation target presentation unit 21 is associated with information representing a predetermined coordinate range as a characteristic portion (hereinafter referred to as a characteristic region) of the image of the fixation target. shall be provided.

具体的に図3(a)に例示するように、固視標の画像がランドルト環であれば、当該ランドルト環の開口部の範囲Rを、特徴領域として予め定める。また、図3(b)に例示するように固視標の画像がEチャートであれば線分間の空隙R1,R2を特徴領域として予め定めておく。またスネレン視標(アルファベット文字を用いる)であれば、文字形を構成する有意な画素部分(文字色が黒であれば、黒色の画素の部分)を特徴領域として予め定めておけばよい。 Specifically, as illustrated in FIG. 3A, if the image of the fixation target is a Landolt's ring, the range R of the opening of the Landolt's ring is determined in advance as a characteristic region. Also, as shown in FIG. 3B, if the image of the fixation target is an E-chart, gaps R1 and R2 between lines are determined in advance as characteristic regions. In the case of Snellen optotypes (using alphabetical characters), significant pixel portions (black pixel portions if the character color is black) may be determined in advance as feature regions.

ここでの例の一つでは、推定部23は、所定の期間ごとの被験者の視線方向を求める。例えば推定部23は、1/10秒分の座標の情報(80回分のデータ)ごとに、その平均(LxAv_i,LyAv_i)(i=1,2,…)を、この期間の視線方向の情報として求める。ここで(LxAv_1,LyAv_1)が測定開始後、最初の1/10秒間の被験者の左目の眼球位置に対応する画像上の座標の平均を表し、(LxAv_2,LyAv_2)がその次の1/10秒間の被験者の左目の眼球位置に対応する画像上の座標の平均を表し…というようになっているものとする。 In one of the examples here, the estimation unit 23 obtains the line-of-sight direction of the subject for each predetermined period. For example, the estimation unit 23 uses the average (LxAv_i, LyAv_i) (i=1, 2, . demand. Here, (LxAv_1, LyAv_1) represents the average of the coordinates on the image corresponding to the eyeball position of the subject's left eye for the first 1/10 second after the start of measurement, and (LxAv_2, LyAv_2) is the next 1/10 second. is the average of the coordinates on the image corresponding to the eyeball position of the left eye of the subject.

推定部23は、得られた所定の期間ごとの被験者の視線方向(LxAv_i,LyAv_i)が、被験者に提示されている画像について予め定められた特徴領域に含まれているか否かを調べる。そして推定部23は、
(1)画像を呈示してから所定の時間のうち、得られた視線方向が特徴領域に含まれていた時間の割合
(2)画像が呈示されてから視線方向が特徴領域内となるまでの時間
(3)(特徴領域が複数ある場合)、特徴領域ごとの、視線方向が含まれていた回数の比
などを求める。
The estimating unit 23 examines whether or not the obtained line-of-sight direction (LxAv_i, LyAv_i) of the subject for each predetermined period is included in a predetermined characteristic region of the image presented to the subject. Then, the estimation unit 23
(1) Percentage of time during which the obtained line-of-sight direction was included in the feature region within a predetermined period of time after the image was presented At time (3) (when there are multiple feature regions), the ratio of the number of times the line-of-sight direction is included is determined for each feature region.

推定部23は、これら求められた情報を用いて、例えば、得られた視線方向が特徴領域に含まれていた回数の、画像呈示中の視線方向の取得回数(全回数)に対する割合が予め定めたしきい値(例えば8割)を超える場合に、呈示された固視標を視認した(当該固視標を視認するだけの視力を有していた)と判断する。 The estimating unit 23 uses the obtained information to predetermine, for example, the ratio of the number of times the obtained line-of-sight direction is included in the characteristic region to the number of times the line-of-sight direction is acquired during image presentation (total number of times). If the threshold (for example, 80%) is exceeded, it is determined that the presented fixation target has been visually recognized (the visual acuity is sufficient to visually recognize the fixation target).

あるいは推定部23は、上記(1)から(3)とともに、あるいはこれらに代えて、
(4)固視点取得部22が検出した、被験者の眼球位置に対応する画像上の座標の情報に基づいて固視微動を検出する
こととしてもよい。
Alternatively, the estimating unit 23, together with (1) to (3) above, or instead of these,
(4) A small fixational eye movement may be detected based on the coordinate information on the image corresponding to the eyeball position of the subject detected by the fixation point acquisition unit 22 .

ここで固視微動には、マイクロサッカード、ドリフト、トレモアの3種類の運動があるが、推定部23で検出する固視微動は、これら3種類のうち少なくとも一つの種類の運動(例えばマイクロサッカード)でよい。 Here, there are three types of involuntary eye movements: microsaccade, drift, and tremore. de) is fine.

具体的な例として、この固視微動の検出の方法は、上記固視微動に係る文献に開示されたものと同様、角膜反射光の移動量に基づいて眼球位置(視線の方向)を連続的に検出することで行うことができる。すなわち本実施の形態の一例では、推定部23では、上記固視微動に係る文献に開示された方法、あるいは、Engbert R, Kliegl R, “”Microsaccades uncover the orientation of convert attention.”, Vision Res.Vol 43, No.9, pp.1035-1045, 2003や、Engbert R “Microsaccardes: A microcosm for research on oculomotor control, attention, and visual perception”, Prog. Brain Res. Vol.154, pp.177-192, 2006などに開示された方法を用いて、入力された動画像データのうち、固視微動(特にそのうちマイクロサッカード)が生じた期間に撮像された動画像データの部分(複数回の固視微動が検出されたときには複数の部分)を検出する。 As a specific example, this method for detecting small involuntary eye movements is similar to the method disclosed in the above-mentioned literature relating to small involuntary eye movements, and continuously detects the position of the eyeball (the direction of the line of sight) based on the amount of movement of the corneal reflected light. This can be done by detecting That is, in one example of the present embodiment, the estimating unit 23 uses the method disclosed in the literature regarding the fixational eye movement, or Engbert R, Kliegl R, “”Microsaccades uncover the orientation of convert attention.”, Vision Res. Vol 43, No.9, pp.1035-1045, 2003, Engbert R "Microsaccardes: A microcosm for research on oculomotor control, attention, and visual perception", Prog. Brain Res. Vol.154, pp.177-192 , 2006, among the input moving image data, portions of the moving image data captured during the period when involuntary eye movement (especially microsaccades) occurred (multiple fixations). multiple parts) when microtremors are detected.

この例では、推定部23は、検出した動画像データの部分ごとに、当該動画像データの部分の最初のフレーム(動画像データの部分に含まれる静止画像データのうち、最も早い時間に撮像された静止画像データ)と、当該動画像データの部分の最後のフレーム(動画像データの部分に含まれる静止画像データのうち、最後に撮像された静止画像データ)とを抽出する。そして、当該抽出した最初のフレームにおける眼球位置S(xs,ys)と、最後のフレームにおける眼球位置E(xe,ye)とを用いて、眼球の移動距離(位置SとEとの間のユークリッド距離でよい)と、移動範囲(位置Sと位置Eとを結ぶ線分)と、移動方向(位置Sから位置Eへの方向(Δx,Δy)=(xe,ye)-(xs,ys))との情報を取得する。 In this example, the estimating unit 23 detects, for each portion of the moving image data detected, the first frame of the portion of the moving image data (the still image data captured at the earliest time among the still image data included in the portion of the moving image data). still image data) and the last frame of the moving image data portion (the last captured still image data among the still image data included in the moving image data portion) are extracted. Then, using the extracted eyeball position S (xs, ys) in the first frame and the eyeball position E (xe, ye) in the last frame, the movement distance of the eyeball (Euclidean distance), movement range (line segment connecting position S and position E), movement direction (direction from position S to position E (Δx, Δy) = (xe, ye) - (xs, ys) ) to get information about

そして推定部23は、固視微動を検出した眼球位置の平均の座標P′を求め、当該平均の座標に対応する、被験者用表示部141に表示された固視標(視力を推定する例ではランドルト環とする)上の座標Pを求める。そして推定部23は、図3(a)に例示するように、当該求めた固視標上の座標Pが、ランドルト環の開口部の範囲などの特徴領域Rに含まれるか否かを判断する。 Then, the estimating unit 23 obtains the average coordinate P′ of the eyeball position where the involuntary eye movement is detected, and the fixation target displayed on the subject display unit 141 corresponding to the average coordinate (in the example of estimating visual acuity, The coordinate P on the Landolt ring is obtained. Then, as illustrated in FIG. 3A, the estimating unit 23 determines whether or not the obtained coordinate P on the fixation target is included in the characteristic region R such as the range of the opening of the Landolt's ring. .

推定部23は、検出した眼球位置に対応して求めた固視標上の座標Pが、呈示した固視標の特徴領域Rに含まれるときに、被験者が、呈示された固視標を視認した(呈示された固視標を視認するだけの視力を有している)と判断する。 The estimating unit 23 allows the subject to visually recognize the presented fixation target when the coordinate P on the fixation target obtained corresponding to the detected eyeball position is included in the characteristic region R of the presented fixation target. It is determined that the subject has the visual acuity sufficient to visually recognize the presented fixation target.

一方、求めた固視標上の座標Pが、上記特徴領域Rに含まれない場合は、推定部23は、被験者が呈示された固視標を視認していない(呈示された固視標を視認するだけの視力を有していない)と判断する。 On the other hand, if the determined coordinate P on the fixation target is not included in the characteristic region R, the estimation unit 23 determines that the subject does not visually recognize the presented fixation target (the presented fixation target is I do not have enough eyesight to see).

推定部23は、被験者が視認した固視標のうち、その特徴領域Rの視角がもっとも小さい視角(最小視角)となるものを記録しておき、当該最小視角の情報に基づいて被験者の視力の推定値を出力する。一例としてこの推定部23は、最小視角αの逆数を、視力の推定値とすればよい。 The estimating unit 23 records the smallest visual angle (minimum visual angle) of the characteristic region R among the fixation targets visually recognized by the subject, and estimates the visual acuity of the subject based on the information of the minimum visual angle. Print an estimate. As an example, the estimation unit 23 may use the reciprocal of the minimum viewing angle α as the estimated value of visual acuity.

また別の例では、この推定部23は、例えば次のようにして被験者の視野を推定する。推定部23は、固視微動を検出した眼球位置の平均の座標P′を求め、当該平均の座標P′に対応する、被験者用表示部141に表示された固視標(視野を推定する例では視野F内の検査点における輝点V)の画像上の座標Pを求める。 In another example, the estimating unit 23 estimates the subject's visual field, for example, as follows. The estimating unit 23 obtains the average coordinate P′ of the eyeball positions where the small fixational eye movements are detected, and calculates the fixation target displayed on the subject display unit 141 (an example of estimating the visual field) corresponding to the average coordinate P′. Then, the coordinate P on the image of the bright point V) at the inspection point within the field of view F is obtained.

推定部23は、さらに、固視微動を検出していない間の眼球位置の平均の座標Q′を求め、当該平均の座標Q′に対応する、被験者用表示部141に表示された固視標の画像上の座標Qを求める。 The estimating unit 23 further obtains the average coordinate Q′ of the eyeball position while no fixational eye movement is detected, and the fixation target displayed on the subject display unit 141 corresponding to the average coordinate Q′ is calculated. , the coordinate Q on the image of is obtained.

推定部23は、そして、座標Qが固視標の画像の中心Oから所定の距離範囲にあり、かつ、QからPへ引いた線分lと、表示している固視標である輝点Vの座標との距離d(図4)が、予め定めたしきい値を下回る場合に、被験者が輝点Vを認識したと判断する。 Then, the estimating unit 23 determines that the coordinate Q is within a predetermined distance range from the center O of the image of the fixation target, the line segment l drawn from Q to P, and the bright point that is the displayed fixation target. It is determined that the subject has recognized the bright spot V when the distance d (FIG. 4) from the coordinates of V is below a predetermined threshold value.

これは被験者が意識的には画像の中央部を視認しつつ、輝点が表示されたときに、無意識に当該輝点を認識して固視微動が生じたことを検出することを意味する。 This means that the subject consciously views the central portion of the image and, when the luminescent spot is displayed, unconsciously recognizes the luminescent spot and detects the occurrence of involuntary eye movement.

推定部23は、認識したと判断した輝点の座標(あるいは当該座標にある輝点を特定する情報)のリストを、被験者ごとに記録して出力する。 The estimating unit 23 records and outputs a list of the coordinates of the bright spots determined to be recognized (or information specifying the bright spots at the coordinates) for each subject.

出力部24は、推定部23が出力する情報を、ユーザ用表示部142、あるいは外部に出力する。例えば推定部23が視力の推定値を出力しているときには、この出力部24は、当該視力の推定値を表示出力する。あるいは、推定部23が、被験者が認識したと判断した輝点の座標のリストを出力しているときには、この出力部24は、当該リストに基づいて、被験者が認識した輝点の座標を図示する画像等を出力する。 The output unit 24 outputs the information output by the estimation unit 23 to the user display unit 142 or to the outside. For example, when the estimation unit 23 is outputting an estimated value of visual acuity, the output unit 24 displays and outputs the estimated value of visual acuity. Alternatively, when the estimating unit 23 outputs a list of the coordinates of the bright spots recognized by the subject, the output unit 24 plots the coordinates of the bright spots recognized by the subject based on the list. Output images, etc.

[動作]
本発明の実施の形態に係る視覚検査装置1は、以上の構成を基本的に備えており、次のように動作する。以下では、固視標として図3(a)に例示したランドルト環を用いる場合を例とし、固視微動によって視認できたか否かを判断することとする。
[motion]
The visual inspection apparatus 1 according to the embodiment of the present invention basically has the above configuration, and operates as follows. In the following, the case where the Landolt's ring shown in FIG. 3A is used as the fixation target will be taken as an example, and it will be determined whether or not the object can be visually recognized by the slight fixation movement.

この視覚検査装置1のユーザ(検査を行う検査者)は、被験者を、被験者用表示部141を視認可能な位置に案内し、固視点検出器2を、当該被験者の目を撮像可能な位置に配する。また被験者に対して左右の目のうち、検査の対象としない、片方の目を隠すよう指示する。 The user of this visual inspection apparatus 1 (examiner who performs the inspection) guides the subject to a position where the subject display unit 141 can be visually recognized, and moves the fixation point detector 2 to a position where the eye of the subject can be imaged. Distribute. In addition, the subject is instructed to cover one of the left and right eyes, which is not the subject of the test.

ユーザは、視覚検査装置1を操作して、予め定められた固視標のうちから一つ、呈示する固視標の画像を選択する。以下の例では被験者の視力を検査する例として、固視標であるランドルト環の画像のうち一つを選択するものとする。なお、選択の対象となるランドルト環の画像は、互いにその半径または開口位置の少なくともいずれかが異なるものとする。 The user operates the visual inspection device 1 to select one image of the fixation target to be presented from the predetermined fixation targets. In the following example, one image of the Landolt's ring, which is a fixation target, is selected as an example of testing the visual acuity of the subject. It is assumed that the images of the Landolt ring to be selected are different from each other in at least one of the radius and the opening position.

ユーザが、特徴領域Rの視角がβ1であるランドルト環の画像を選択すると、視覚検査装置1は、当該選択されたランドルト環の画像を、被験者用表示部141に表示する。そして固視点検出器2が被験者の目(隠していない方の目)を撮像した動画像データを出力する。 When the user selects the image of the Landolt's ring in which the visual angle of the characteristic region R is β1, the visual inspection apparatus 1 displays the selected image of the Landolt's ring on the subject display section 141 . Then, the fixation point detector 2 outputs moving image data of the subject's eye (the uncovered eye).

被験者が被験者用表示部141に表示された画像を見るとき、当該被験者が当該ランドルト環の切れ目(開口)を視認した場合には、被験者の眼球は、当該開口の位置でマイクロサッカードを生じる。 When the subject views the image displayed on the subject display unit 141, if the subject visually recognizes the break (opening) of the Landolt's ring, the subject's eyeball produces a microsaccade at the position of the opening.

視覚検査装置1は、固視点検出器2が出力する動画像データに基づき、被験者の目がマイクロサッカードを起こしている期間を特定し、さらに当該期間に撮像された動画像データの部分を抽出して、当該抽出した最初のフレームにおける眼球位置S(xs,ys)と、最後のフレームにおける眼球位置E(xe,ye)とを得る。 The visual inspection device 1 identifies a period during which the subject's eyes are experiencing microsaccades based on the moving image data output by the fixation point detector 2, and further extracts a portion of the moving image data captured during that period. Then, the extracted eyeball position S (xs, ys) in the first frame and the eyeball position E (xe, ye) in the last frame are obtained.

また視覚検査装置1は、得られた眼球位置S,Eを用い、眼球の移動距離(位置SとEとの間のユークリッド距離でよい)、移動範囲(位置Sと位置Eとを結ぶ線分)、及び、移動方向(位置Sから位置Eへの方向)などの情報を取得する。 Using the obtained eyeball positions S and E, the visual inspection apparatus 1 uses the eyeball movement distance (Euclidean distance between positions S and E), movement range (line segment connecting position S and position E ), and the direction of movement (direction from position S to position E).

視覚検査装置1は、当該固視微動を検出した眼球位置の平均の座標P′(S+E/2)を求め、当該平均の座標に対応する、被験者用表示部141に表示された固視標(ランドルト環)の画像上の座標Pを求める。視覚検査装置1は、当該求めた固視標の画像上の座標Pが、被験者用表示部141に表示されたランドルト環について予め定められた特徴領域に含まれるか否かを判断する。 The visual inspection apparatus 1 obtains the average coordinates P′(S+E/2) of the eyeball positions where the fixational eye movements are detected, and displays the fixation target ( The coordinate P on the image of the Landolt ring) is obtained. The visual inspection apparatus 1 determines whether or not the obtained coordinate P on the image of the fixation target is included in a predetermined characteristic region of the Landolt's ring displayed on the subject display section 141 .

ここでランドルト環の特徴領域Rは、図3(a)に例示したように、ランドルト環の開口部を含む扇型状の領域であって、ランドルト環の内径をrin、外径をroutとして、ランドルト環の中心からrin-Δrからrout+Δr(ここでΔrは0以上の値であって設計的に定められる値とする)の距離にある領域などとして予め規定しておけばよい。 Here, as illustrated in FIG. 3A, the characteristic region R of the Landolt ring is a fan-shaped region including the opening of the Landolt ring. A region at a distance from rin-Δr to rout+Δr from the center of the Landolt's ring (where Δr is a value equal to or greater than 0 and determined by design) may be defined in advance.

視覚検査装置1は、求めた固視標の画像上の座標Pが、被験者用表示部141に表示されたランドルト環の特徴領域Rに含まれる場合に、被験者が呈示されたランドルト環の特徴領域を認識したと判断して、その旨の情報を、ユーザ用表示部142に出力する。 When the obtained coordinate P on the image of the fixation target is included in the characteristic region R of the Landolt's ring displayed on the display unit 141 for the subject, the visual inspection apparatus 1 determines the characteristic region of the Landolt's ring presented to the subject. is recognized, and information to that effect is output to the user display unit 142 .

ユーザは、当該表示を参照して、より半径の小さい(つまり特徴領域Rの視角がより小さい視角β2であるような)ランドルト環の画像を表示するよう視覚検査装置1に指示する。 The user refers to the display and instructs the vision inspection device 1 to display an image of the Landolt's ring with a smaller radius (that is, such that the visual angle of the characteristic region R is a smaller visual angle β2).

以下、ユーザが、被験者用表示部141に表示するランドルト環(特徴領域Rの視角βi(i=1,2,…))を指定すると、視覚検査装置1は、当該ランドルト環が呈示されたときの被験者のマイクロサッカードに基づき、被験者が当該ランドルト環の特徴領域Rである開口を視認したか否かを判断して当該判断の結果をユーザに対して提示する。 Hereinafter, when the user designates a Landolt's ring (visual angle βi (i=1, 2, . . . ) of the characteristic region R) to be displayed on the subject display unit 141, the visual inspection apparatus 1 displays Based on the subject's microsaccade, it is determined whether or not the subject has visually recognized the opening, which is the characteristic region R of the Landolt's ring, and the result of the determination is presented to the user.

視覚検査装置1は、これより、特徴領域Rの視角がβi(i=1,2,…)であるランドルト環ごとに、その開口(特徴領域R)を被験者が視認したか否かを表す情報の列Li(i=1,2,…)を関連付けて得る。そして視覚検査装置1は、被験者が特徴領域を視認したことを表す情報Liに関連付けられた視角βiのうち、もっとも小さい視角(最小視角)となるβminを見出し、当該最小視角βminの逆数を、被験者の視力の推定値として出力する。 From this, the visual inspection apparatus 1 obtains information indicating whether or not the subject has visually recognized the opening (characteristic region R) for each Landolt's ring in which the visual angle of the characteristic region R is βi (i=1, 2, . . . ). , with i=1, 2, . . . Then, the visual inspection apparatus 1 finds βmin, which is the smallest visual angle (minimum visual angle), among the visual angles βi associated with the information Li indicating that the subject has visually recognized the characteristic region, and calculates the reciprocal of the minimum visual angle βmin as the subject. output as an estimate of the visual acuity of

[視認判定の別の例]
ここまでの説明の例では、視覚検査装置1が、ランドルト環を固視標として、当該固視標を見る被験者の目(左目または右目のいずれか)の固視微動を検出し、当該検出した固視微動時の眼球位置の平均の座標P′を求め、当該平均の座標に対応する、固視標上の座標Pが、呈示した固視標の特徴領域Rに含まれるか否かにより被験者が固視標を視認しているか否かを判断していたが、本実施の形態はこれに限られない。
[Another example of visibility determination]
In the example described so far, the visual inspection apparatus 1 uses the Landolt's ring as a fixation target, detects a fixational eye movement of the subject's eye (either the left eye or the right eye) looking at the fixation target, and detects the detected small eye movement. An average coordinate P′ of the eyeball position at the time of fixational eye movement is calculated, and the subject is judged by whether or not the coordinate P on the fixation target corresponding to the average coordinate is included in the characteristic region R of the presented fixation target. determines whether or not the user is visually recognizing the fixation target, but the present embodiment is not limited to this.

例えば、本実施の形態の視覚検査装置1は、検出した固視微動時の眼球位置の平均の座標P′と固視微動時の眼球位置の移動方向(Δx,Δy)とを用い、
・平均の座標P′が、ランドルト環の中心よりもランドルト環の開口(特徴領域Rの中心でよい)に近く、かつ、
・ランドルト環の中心と開口(特徴領域Rの中心でよい)とを結ぶ線分の方向と、固視微動時の眼球位置の移動方向とのなす角度の絶対値が予め定めたしきい値より小さいこと
を条件として、この条件を満足するときに被験者がランドルト環の特徴領域Rを視認していると判断し、この条件を満足しないときには被験者がランドルト環の特徴領域Rを視認していないと判断してもよい。
For example, the visual inspection apparatus 1 of the present embodiment uses the detected average coordinate P′ of the eyeball position during a small fixational eye movement and the moving direction (Δx, Δy) of the eyeball position during a small fixational eye movement,
- the average coordinate P' is closer to the opening of the Landolt's ring (it may be the center of the feature region R) than to the center of the Landolt's ring, and
・The absolute value of the angle formed by the direction of the line connecting the center of the Landolt's ring and the opening (the center of the characteristic region R may be sufficient) and the direction of movement of the eyeball position during fixational eye movement is greater than a predetermined threshold value. On the condition that it is small, it is judged that the subject visually recognizes the characteristic region R of the Landolt's ring when this condition is satisfied, and it is determined that the subject does not visually recognize the characteristic region R of the Landolt's ring when this condition is not satisfied. You can judge.

この方法は、また、ランドルト環ではなく、図3(c)に例示するように、二尾の魚の図形が平行に配列され、その傾きを答えさせる固視標(二尾の魚の間隔が所定の視力に対応する視角となるように設定される)を用いる場合も採用できる。この図3(c)の例による固視標では、特徴領域Rは、二尾の魚の間の空隙部分として規定しておく。 In this method, instead of the Landolt's ring, as shown in FIG. The visual angle is set to correspond to the visual acuity) can also be adopted. In the fixation target according to the example of FIG. 3(c), the characteristic region R is defined as the gap between the two fish.

この例の場合、視覚検査装置1は、検出した固視微動時の眼球位置の移動方向(Δx,Δy)と、この特徴領域Rの長手方向の軸の傾き(平行に配列された一対の図形の傾き)とのなす角の絶対値が予め定めたしきい値より小さいときに、被験者が上記図形の傾きを視認していると判断し、そうでないときには被験者が上記図形の傾きを視認していないと判断することとしてもよい。 In the case of this example, the visual inspection apparatus 1 detects the moving direction (Δx, Δy) of the eyeball position at the time of involuntary eye movement and the inclination of the longitudinal axis of this characteristic region R (a pair of figures arranged in parallel When the absolute value of the angle formed by the slope of the figure is smaller than a predetermined threshold value, it is determined that the subject visually recognizes the slope of the figure. You may decide not to.

[もう一つの動作例]
また本発明の実施の形態に係る視覚検査装置1は、既に述べたように、固視点の位置によって、呈示した固視標を視認できたか否かを判断してもよい。
[Another example of operation]
Further, as described above, the visual inspection apparatus 1 according to the embodiment of the present invention may determine whether or not the presented fixation target is visually recognized based on the position of the fixation point.

この例でも視覚検査装置1のユーザ(検査を行う検査者)は、被験者を、被験者用表示部141を視認可能な位置に案内し、固視点検出器2を、当該被験者の目を撮像可能な位置に配する。また被験者に対して左右の目のうち、検査の対象としない、片方の目を隠すよう指示する。 In this example as well, the user of the visual inspection apparatus 1 (examiner who performs the inspection) guides the subject to a position where the subject display unit 141 can be visually recognized, and the fixation point detector 2 is placed so that the eye of the subject can be imaged. position. In addition, the subject is instructed to cover one of the left and right eyes, which is not the subject of the test.

そしてユーザは、視覚検査装置1を操作して、予め定められた固視標のうちから一つ、呈示する固視標の画像を選択する。以下の例では被験者の視力を検査する例として、固視標の画像のうち一つを選択するものとする。なお、選択の対象となる画像は、特徴領域Rの視角が互いに異なるものを含む。 Then, the user operates the visual inspection device 1 to select one image of the fixation target to be presented from the predetermined fixation targets. In the following example, it is assumed that one of the images of the fixation target is selected as an example of testing the visual acuity of the subject. Note that the images to be selected include those in which the viewing angles of the characteristic regions R are different from each other.

ユーザが、特徴領域Rの視角がβ1である固視標の画像を選択すると、視覚検査装置1は、当該選択された固視標の画像を、被験者用表示部141に表示する。そして固視点検出器2が被験者の目(隠していない方の目)を撮像した動画像データを出力する。 When the user selects the image of the fixation target in which the visual angle of the characteristic region R is β1, the visual inspection apparatus 1 displays the selected image of the fixation target on the subject display section 141 . Then, the fixation point detector 2 outputs moving image data of the subject's eye (the uncovered eye).

視覚検査装置1は、固視点検出器2から入力される、動画像に含まれる各静止画像から検出した眼球位置の情報に対応する、被験者用表示部141が呈示する画像の座標(固視点の座標)を逐次的に得る。一例として固視点検出器2が1/800秒ごとに撮像しているとすると、1秒あたり800回分の固視点の座標の情報が得られることになる。 The visual inspection apparatus 1 obtains the coordinates of the image presented by the subject display unit 141 (the coordinates of the fixation point) corresponding to the eyeball position information detected from each still image included in the moving image, which is input from the fixation point detector 2 . coordinates) are obtained sequentially. As an example, if the fixation point detector 2 takes an image every 1/800th of a second, information on the coordinates of the fixation point is obtained 800 times per second.

視覚検査装置1は、当該逐次的に得られた被験者の固視点の座標の情報(X_i,Y_i)(i=1,2,…)を、所定の時間分ごとに統計処理する。例えば視覚検査装置1は、1/10秒分の座標の情報(80回分のデータ)ごとに、その平均(XAv_j,YAv_j)(j=1,2,…)を、対応する期間の視線方向の情報として求める。 The visual inspection apparatus 1 statistically processes the information (X_i, Y_i) (i=1, 2, . For example, the visual inspection apparatus 1 calculates the average (XAv_j, YAv_j) (j=1, 2, . Ask for information.

視覚検査装置1は、ここで得られた所定の期間ごとの被験者の視線方向(XAv_j,YAv_j)ごとに、被験者に提示されている固視標の画像の特徴領域Rに含まれているか否かを調べる。 The visual inspection apparatus 1 determines whether the gaze direction (XAv_j, YAv_j) of the subject for each predetermined period obtained here is included in the characteristic region R of the image of the fixation target presented to the subject. to examine.

視覚検査装置1は、そして、固視標の画像を呈示してから所定の時間内に得られた被験者の視線方向(XAv_j,YAv_j)のうち、得られた視線方向(XAv_j,YAv_j)が特徴領域Rに含まれていた時間の割合を求める。例えば固視標の画像を呈示してから10秒間の間に得られる、視線方向(XAv_j,YAv_j)(j=1,2,…100)のうち、特徴領域Rに含まれている視線方向(XAv_j,YAv_j)の数n(nは0≦n≦100なる整数)を求め、割合n/100を演算する。 The visual inspection apparatus 1 then determines the obtained visual axis direction (XAv_j, YAv_j) among the subject's visual axis directions (XAv_j, YAv_j) obtained within a predetermined time after presentation of the image of the fixation target as a feature. Determine the percentage of time that was included in region R. For example, among the line-of-sight directions (XAv_j, YAv_j) (j=1, 2, . XAv_j, YAv_j) number n (n is an integer of 0≤n≤100) is obtained, and the ratio n/100 is calculated.

視覚検査装置1は、この得られた割合n/100が予め定めたしきい値(例えば8割を表す0.8)を超える場合に、呈示された固視標を視認した(当該固視標を視認するだけの視力を有していた)と判断して、その旨の情報を、ユーザ用表示部142に出力する。 When the obtained ratio n/100 exceeds a predetermined threshold value (for example, 0.8 representing 80%), the visual inspection apparatus 1 visually recognizes the presented fixation target (this fixation target ), and information to that effect is output to the user display unit 142 .

ユーザは、当該表示を参照して、例えば呈示された固視標を視認した旨の表示が行われると、特徴領域Rの視角がより小さい視角β2であるような固視標の画像を表示するよう視覚検査装置1に指示する。 The user refers to the display and, for example, when a display indicating that the presented fixation target has been visually recognized is displayed, the image of the fixation target is displayed such that the visual angle of the characteristic region R is the smaller visual angle β2. The visual inspection device 1 is instructed to do so.

以下、ユーザが、被験者用表示部141に表示する固視標の画像(特徴領域Rの視角βi(i=1,2,…))を順次指定すると、視覚検査装置1は、各固視標の画像が呈示されたときの被験者の固視点座標の平均である視線方向の情報に基づき、被験者が当該固視標の特徴領域Rを視認したか否かを判断する。そして視覚検査装置1は、当該判断の結果をユーザに対して提示する。 After that, when the user sequentially designates images of fixation targets (visual angles βi (i=1, 2, . . . ) of characteristic regions R) to be displayed on the subject display unit 141, the visual inspection apparatus 1 displays each fixation target. It is determined whether or not the subject visually recognizes the characteristic region R of the fixation target based on information on the line-of-sight direction, which is the average of the fixation point coordinates of the subject when the image is presented. Then, the visual inspection device 1 presents the result of the determination to the user.

視覚検査装置1は、これより、特徴領域Rの視角がβi(i=1,2,…)である固視標の画像ごとに、その特徴領域Rを被験者が視認したか否かを表す情報の列Li(i=1,2,…)を関連付けて得る。そして視覚検査装置1は、被験者が特徴領域を視認したことを表す情報Liに関連付けられた視角βiのうち、もっとも小さい視角(最小視角)となるβminを見出し、当該最小視角βminの逆数を、被験者の視力の推定値として出力する。 From this, the visual inspection apparatus 1 obtains information indicating whether or not the subject visually recognizes the characteristic region R for each image of the fixation target in which the visual angle of the characteristic region R is βi (i=1, 2, . . . ). , with i=1, 2, . . . Then, the visual inspection apparatus 1 finds βmin, which is the smallest visual angle (minimum visual angle), among the visual angles βi associated with the information Li indicating that the subject has visually recognized the characteristic region, and calculates the reciprocal of the minimum visual angle βmin as the subject. output as an estimate of the visual acuity of

[固視標の呈示]
さらに本実施の形態のここまでの説明では、視覚検査装置1が固視標を呈示することとしていたが、本実施の形態はこれに限られず、固視標は、別途、被験者に呈示されてもよい。この例では、被験者用表示部141は必ずしも必要でなく、また固視標呈示部21の機能的構成も必要ではない。この場合、ユーザは、視覚検査装置1に対して固視標の呈示をした旨の入力を行い、固視点取得部22は、当該入力があったときに、固視標が呈示されているとして、つまり、被験者が固視標を見ているとして、インタフェース部15を介して固視点検出器2から入力される、被験者の目の動画像データを受け入れて、当該動画像データに基づき、被験者の固視微動を検出することとしてもよい。
[Presentation of fixation target]
Furthermore, in the description so far of the present embodiment, the visual inspection apparatus 1 presents the fixation target, but the present embodiment is not limited to this, and the fixation target is separately presented to the subject. good too. In this example, the subject display section 141 is not necessarily required, and the functional configuration of the fixation target presentation section 21 is also not required. In this case, the user inputs to the visual inspection apparatus 1 that the fixation target has been presented, and the fixation point acquiring unit 22 assumes that the fixation target is presented when the input is received. In other words, assuming that the subject is looking at the fixation target, moving image data of the subject's eyes input from the fixation point detector 2 via the interface unit 15 is accepted, and based on the moving image data, the subject's A fixation eye movement may be detected.

[スマートフォンへの実装]
また本実施の形態の視覚検査装置1は、スマートフォンにより実装されてもよい。この例では、例えば被験者自身がユーザ(検査を行う検査者)となる。ユーザは、固視点検出器2を、視覚検査装置1として機能するスマートフォンに接続して、当該スマートフォンと、固視点検出器2とを机の上などに固定して、被験者とこれらとの相対的な位置関係が変化しないようにしておく。
[Implementation on smartphone]
Also, the vision inspection device 1 of the present embodiment may be implemented by a smart phone. In this example, for example, the subject himself/herself is the user (examiner who performs the examination). The user connects the fixation point detector 2 to a smartphone that functions as the vision inspection device 1, fixes the smartphone and the fixation point detector 2 on a desk, etc. Do not change the positional relationship.

以下ユーザは、スマートフォンのディスプレイを見ながら、スマートフォンに視覚検査装置1としての機能を実行させる。この例ではスマートフォンのディスプレイが被験者用表示部141とユーザ用表示部142との双方として機能する。 Below, the user causes the smartphone to perform the functions of the vision inspection device 1 while looking at the display of the smartphone. In this example, the smartphone display functions as both the subject display unit 141 and the user display unit 142 .

またこの例では検査前に、視覚検査装置1が予め定められた互いに異なる3つの点を順番に表示して、各点をユーザ(被験者)に固視させる。そして視覚検査装置1は、それぞれの点を固視させたときに固視点検出器2から被験者の眼球位置の情報を受け入れる。そして視覚検査装置1は、被験者用表示部141に表示した各点と、眼球位置の情報との対応関係を表す、アフィン変換のパラメータを取得する。 Further, in this example, before the examination, the visual inspection apparatus 1 sequentially displays three predetermined points different from each other, and causes the user (subject) to fixate on each point. The visual inspection device 1 then receives information on the eyeball position of the subject from the fixation point detector 2 when each point is fixated. Then, the visual inspection apparatus 1 acquires parameters of affine transformation that represent the correspondence relationship between each point displayed on the subject display unit 141 and the eyeball position information.

これにより視覚検査装置1は、眼球位置の情報と、被験者用表示部141が呈示する画像の座標とを関連付ける。 Thereby, the visual inspection apparatus 1 associates the eyeball position information with the coordinates of the image presented by the subject display unit 141 .

その後、ユーザは、左右の目について順番に検査を行う。ユーザは、それぞれの目の検査の際に、検査の対象としない、片方の目を隠して、視覚検査装置1を操作する。この例では視覚検査装置1が、所定の規則に従って、提示する固視標の画像を、予め定められた固視標のうちから一つ選択する。ここでの所定の規則は例えば、
(1)初回は、特徴領域の視角が予め定めた値であるような固視標を選択する、
(2)2回目以降は、前回の特徴領域が視認できたか否かにより、
(2-1)視認できたときには、前回の固視標の特徴領域の視角よりも小さい視角の特徴領域を有する固視標を選択し、
(2-2)視認できなかったときには、前回の固視標の特徴領域の視角と同じ視角の特徴領域を有する固視標であって、前回選択したものとは異なる固視標を選択し、
(3)特徴領域が視認できない回数が予め定めた回数を上回ったときには、処理を終了する、
といった規則とする。
After that, the user tests the left and right eyes in turn. When inspecting each eye, the user operates the visual inspection apparatus 1 while covering one eye that is not to be inspected. In this example, the visual inspection apparatus 1 selects one image of the fixation target to be presented from predetermined fixation targets according to a predetermined rule. A given rule here is, for example,
(1) For the first time, a fixation target is selected such that the visual angle of the characteristic region is a predetermined value;
(2) From the second time onwards, depending on whether or not the previous characteristic region was visually recognized,
(2-1) selecting a fixation target having a characteristic region with a smaller visual angle than the characteristic region of the previous fixation target when it is visible;
(2-2) selecting a fixation target having a characteristic region with the same visual angle as the characteristic region of the previous fixation target, but different from the previously selected fixation target, when the visual recognition was not possible;
(3) when the number of times the feature region cannot be visually recognized exceeds a predetermined number of times, the process is terminated;
Rules such as

そして視覚検査装置1は、当該選択した固視標の画像を、被験者用表示部141に表示する。視覚検査装置1は、このとき固視点検出器2から、被験者の眼球位置の情報を受け入れる。 Then, the visual inspection apparatus 1 displays the image of the selected fixation target on the subject display section 141 . At this time, the visual inspection device 1 receives information on the subject's eyeball position from the fixation point detector 2 .

被験者が被験者用表示部141に表示された固視標の画像を見るとき、被験者が固視標の特徴領域(例えばランドルト環の切れ目など)を視認した場合には、被験者の視線が特徴領域の近傍で滞留する(平均的な眼球位置が、特徴領域に対応する位置となる)か、または、当該特徴領域の近傍を見る被験者の眼球がマイクロサッカードを生じる。そこで視覚検査装置1は、被験者の視線が特徴領域の近傍で滞留したか、または特徴領域の近傍を見る被験者の眼球がマイクロサッカードを生じたときに被験者が固視標の特徴領域を認識する。またそうでないときには、視覚検査装置1は、被験者が固視標の特徴領域を認識していないと判断する。 When the subject sees the image of the fixation target displayed on the subject display unit 141, if the subject visually recognizes a characteristic region of the fixation target (for example, a break in Landolt's ring), the subject's line of sight is aligned with the characteristic region. The subject's eyeballs either stay in the vicinity (the average eyeball position corresponds to the characteristic region) or look at the vicinity of the characteristic region and produce microsaccades. Therefore, the visual inspection apparatus 1 allows the subject to recognize the characteristic region of the fixation target when the subject's line of sight stays in the vicinity of the characteristic region or when the subject's eyeballs looking at the vicinity of the characteristic region produce microsaccades. . Otherwise, the visual inspection apparatus 1 determines that the subject does not recognize the characteristic region of the fixation target.

視覚検査装置1は、被験者が固視標の特徴領域を認識したと判断したときには、その旨の情報をディスプレイに表示出力することとしてもよい。またこのとき視覚検査装置1は、特徴領域Rの視角がより小さい視角であるような固視標の画像を選択して表示する処理から繰り返す。 When the visual inspection apparatus 1 determines that the subject has recognized the characteristic region of the fixation target, the visual inspection apparatus 1 may display and output information to that effect on the display. At this time, the visual inspection apparatus 1 repeats the processing from selecting and displaying the image of the fixation target in which the visual angle of the characteristic region R is smaller.

視角検査装置1は、また、選択の処理を終了することとなったときには、それまでに選択した固視標の特徴領域の視角のうち、最小の視角に基づいて、被験者の視力を表す値を推定して出力する。 When the visual angle inspection device 1 ends the selection process, it calculates a value representing the visual acuity of the subject based on the minimum visual angle among the visual angles of the characteristic regions of the fixation target selected so far. Estimate and output.

[実施形態の効果]
本実施の形態の例によると、被験者が意識的に制御不能な固視微動等により、被験者が特徴的な箇所を視認しているか否かを測定し、当該測定に基づいて視力や視野などの視覚に関する情報を推定するので、比較的簡便に、客観性のある検査結果を得ることが可能となる。
[Effects of Embodiment]
According to the example of the present embodiment, it is measured whether or not the subject is visually recognizing a characteristic part due to the subject's consciously uncontrollable fixational eye movement, etc., and the visual acuity, visual field, etc. are improved based on the measurement. Since visual information is estimated, objective test results can be obtained relatively easily.

1 視覚検査装置、2 固視点検出器、11 制御部、12 記憶部、13 操作部、14 表示部、15 インタフェース部、21 固視標呈示部、22 固視点取得部、23 推定部、24 出力部、141 被験者用表示部、142 ユーザ用表示部。

1 vision inspection device 2 fixation point detector 11 control unit 12 storage unit 13 operation unit 14 display unit 15 interface unit 21 fixation target presentation unit 22 fixation point acquisition unit 23 estimation unit 24 output Section, 141 display section for subject, 142 display section for user.

Claims (4)

呈示された所定の固視標を見る被験者の目の固視点の情報を、所定のタイミングごとに繰り返し取得する固視点取得手段と、
前記取得された被験者の固視点の情報に基づいて、当該被験者の視覚に関する情報の推定を行う推定手段と、
当該推定した情報を出力する手段と、
を含む視覚検査装置。
a fixation point acquiring means for repeatedly acquiring information about the fixation point of the eye of the subject viewing the presented predetermined fixation target at predetermined timing;
estimating means for estimating information related to vision of the subject based on the obtained information of the subject's fixation point;
means for outputting the estimated information;
visual inspection equipment including;
所定の固視標を呈示する呈示手段と、
当該呈示された所定の固視標を見る被験者の目の固視点の情報を、所定のタイミングごとに繰り返し取得する固視点取得手段と、
前記取得された被験者の固視点の情報に基づいて、当該被験者の視覚に関する情報の推定を行う推定手段と、
当該推定した情報を出力する手段と、
を含む視覚検査装置。
presentation means for presenting a predetermined fixation target;
a fixation point acquisition means for repeatedly acquiring information about the fixation point of the eye of the subject viewing the presented predetermined fixation target at predetermined timing;
estimating means for estimating information related to vision of the subject based on the obtained information of the subject's fixation point;
means for outputting the estimated information;
visual inspection equipment including;
請求項1または2に記載の視覚検査装置であって、
前記視覚に関する情報は、被験者の視力を表す値の情報であり、
前記固視標は、所定以上の視力を有する被験者が視認可能な像を含み、
推定手段は、前記取得した固視点の情報に基づいて被験者の目のマイクロサッカードの位置、方向、速度の少なくとも一つの情報を生成し、当該生成した被験者の目のマイクロサッカードの位置、方向、速度の少なくとも一つの情報に基づいて、当該被験者の視覚に関する情報である、被験者の視力を表す値の推定を行う視覚検査装置。
3. A visual inspection device according to claim 1 or 2,
The visual information is value information representing the visual acuity of the subject,
The fixation target includes an image that can be visually recognized by a subject having a predetermined or higher visual acuity,
The estimating means generates at least one information of the position, direction, and speed of the microsaccade of the subject's eye based on the acquired information of the fixation point, and generates the generated position and direction of the microsaccade of the subject's eye. and a visual inspection device for estimating a value representing a visual acuity of a subject, which is information about the vision of the subject, based on information on at least one of the speed.
コンピュータを、
呈示された所定の固視標を見る被験者の目の固視点の情報を、所定のタイミングごとに繰り返し取得する固視点取得手段と、
前記取得された被験者の固視点の情報に基づいて、当該被験者の視覚に関する情報の推定を行う推定手段と、
当該推定した情報を出力する手段と、
として機能させるプログラム。

the computer,
a fixation point acquiring means for repeatedly acquiring information about the fixation point of the eye of the subject viewing the presented predetermined fixation target at predetermined timing;
estimating means for estimating information related to vision of the subject based on the obtained information of the subject's fixation point;
means for outputting the estimated information;
A program that acts as a

JP2021105827A 2021-06-25 2021-06-25 Visual inspection device and program Pending JP2023004247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021105827A JP2023004247A (en) 2021-06-25 2021-06-25 Visual inspection device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021105827A JP2023004247A (en) 2021-06-25 2021-06-25 Visual inspection device and program

Publications (1)

Publication Number Publication Date
JP2023004247A true JP2023004247A (en) 2023-01-17

Family

ID=85100356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021105827A Pending JP2023004247A (en) 2021-06-25 2021-06-25 Visual inspection device and program

Country Status (1)

Country Link
JP (1) JP2023004247A (en)

Similar Documents

Publication Publication Date Title
US9934435B2 (en) Image processing apparatus and image processing method
US9439592B2 (en) Eye tracking headset and system for neuropsychological testing including the detection of brain damage
US8855386B2 (en) Registration method for multispectral retinal images
US20100149488A1 (en) Apparatus and method for objective perimetry visual field test
US20130215388A1 (en) Image processing apparatus, diagnostic support system, and image processing method
US9619874B2 (en) Image processing apparatus and image processing method
JPH08278134A (en) Devcie for measuring position of fixed point of eye on target,method for lighting eye and application for displaying image that is changing in correspondence with movement of eye
AU2019239531A1 (en) Visual testing using mobile devices
CN113288044B (en) Dynamic vision testing system and method
CN110269586B (en) Apparatus and method for capturing the field of view of a person with dark spots
CN115590462A (en) Vision detection method and device based on camera
CN111067474B (en) Apparatus and method for objective visual acuity measurement using dynamic velocity threshold filter
KR101984993B1 (en) Visual field examination device using personalized marker control
JP2002000567A (en) Method of measuring pupil center position and method of detecting view point position
JP2023004247A (en) Visual inspection device and program
US20190021589A1 (en) Device and method for determining eye movements by tactile interface
RU2531132C1 (en) Method for determining complex hand-eye reaction rate of person being tested and device for implementing it
CN116997288B (en) Method and apparatus for determining visual manifestations
JP6007543B2 (en) Displacement measuring device, displacement measuring method, and program
JP2023136726A (en) Gaze analyzer, gaze analysis method, gaze analysis program, and training method
WO2023196186A1 (en) Improved systems and methods for testing peripheral vision
WO2024103084A1 (en) Process and system for determining an eye position data set
Valencia et al. Color image analysis of the optic disc to assist diagnosis of glaucoma risk and evolution
AU2022209122A1 (en) Method and device for measuring the visual field of a person
JP2020198921A (en) Brain function state measuring device and program for discriminating brain function state