JP2020018704A - Nystagmus analysis system - Google Patents

Nystagmus analysis system Download PDF

Info

Publication number
JP2020018704A
JP2020018704A JP2018146216A JP2018146216A JP2020018704A JP 2020018704 A JP2020018704 A JP 2020018704A JP 2018146216 A JP2018146216 A JP 2018146216A JP 2018146216 A JP2018146216 A JP 2018146216A JP 2020018704 A JP2020018704 A JP 2020018704A
Authority
JP
Japan
Prior art keywords
data
nystagmus
head position
analysis
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018146216A
Other languages
Japanese (ja)
Other versions
JP7209954B2 (en
Inventor
武 野村
Takeshi Nomura
武 野村
直子 目
Naoko Sakka
直子 目
原田 寛
Hiroshi Harada
寛 原田
卓生 池田
Takuo Ikeda
卓生 池田
橋本 誠
Makoto Hashimoto
誠 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
YOODS KK
Yamaguchi University NUC
Original Assignee
YOODS KK
Yamaguchi University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by YOODS KK, Yamaguchi University NUC filed Critical YOODS KK
Priority to JP2018146216A priority Critical patent/JP7209954B2/en
Publication of JP2020018704A publication Critical patent/JP2020018704A/en
Application granted granted Critical
Publication of JP7209954B2 publication Critical patent/JP7209954B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

To provide a nystagmus analysis system for enabling a doctor to easily perform diagnosis/treatment by storing measured video data on pupil movement, cephalic presentation data at the time of the measurement, and nystagmus analysis data in connection with one another and, thereby, displaying these data while synchronizing these data at the time of the measurement and after the measurement consistently.SOLUTION: A nystagmus analysis system includes: a camera 5 for imaging a subject's pupil; a cephalic presentation sensor 7 for measuring the subject's cephalic presentation; a nystagmus analysis unit 8 for receiving input of pupil video imaged by the camera 5 and outputting nystagmus data; and an output unit 3. The nystagmus analysis unit 8 acquires image data for each frame of the imaged pupil video, takes the acquisition as a trigger to acquire cephalic presentation data from the cephalic presentation sensor 7 and connect the data with the image data, and performs nystagmus analysis using the image data to generate nystagmus data and connect the data with the image data or the cephalic presentation data. The output unit 4 outputs at least two pieces of data of the connected image data, cephalic presentation data, and nystagmus data.SELECTED DRAWING: Figure 1

Description

本発明は、めまい症や平衡機能障害の診断・治療に用いることができる眼振解析システムであって、特に、瞳孔運動の測定映像と、その測定時の頭位と、眼振解析データを紐付けることができる眼振解析システムに関する。   The present invention relates to a nystagmus analysis system that can be used for diagnosis and treatment of vertigo and balance dysfunction, and in particular, links a measurement image of pupil movement, a head position at the time of measurement, and nystagmus analysis data. The present invention relates to a nystagmus analysis system that can be attached.

めまい症や平衡機能障害の診断において、頭部を左右前後に振ったり、捻ったりする刺激を与えた結果、眼球がどのように運動するかを観察する手法が一般的に実施されている。
このような診断では、電気眼振計(ENG)や赤外線ビデオ式眼振計(VOG)が広く用いられているが、電気眼振計では、目を閉じた状態でも計測が可能である一方、顔面に5か所程度の電極を貼りつける必要があり、眼球の垂直・水平運動は検出できるものの、回旋運動は検出できない等の課題があった。赤外線ビデオ式眼振計は、頭部にカメラ付きゴーグルを装着するのみで、目が反応しない赤外線を照射してその瞳孔の映像を記録することで眼球運動検査を実施するものである。この方式は画像処理に専用のシステムが必要で、瞼が計測結果に影響する可能性があるものの、患者の負担が軽く、眼球の水平・垂直・回旋運動の全てを検出可能である。
そこで、従来、赤外線ビデオ式眼振計を用いた多数の発明がなされてきた。
In the diagnosis of vertigo and equilibrium dysfunction, a technique of observing how an eyeball moves as a result of applying a stimulus that shakes or twists the head back and forth and back and forth is generally implemented.
In such a diagnosis, an electric nystagmometer (ENG) and an infrared video nystagmometer (VOG) are widely used, but an electric nystagmometer can measure even when the eyes are closed, About five electrodes need to be attached to the face, and there is a problem that the vertical and horizontal movement of the eyeball can be detected, but the rotation movement cannot be detected. Infrared video nystagmus is an eye movement test performed by simply wearing goggles with a camera on the head and irradiating infrared rays to which the eyes do not react and recording an image of the pupil. This method requires a dedicated system for image processing, and although the eyelids may affect the measurement result, the burden on the patient is light and it is possible to detect all of the horizontal, vertical, and rotational movements of the eyeball.
Therefore, many inventions using infrared video nystagmus have been made.

例えば、特許文献1には、「眼球画像解析システム」という名称で、両眼の眼球運動や瞳孔の大きさをリアルタイムで同時計測できる眼球画像解析システムが開示されている。
この特許文献1に開示される発明では、眼球撮影装置あるいは画像再生装置又は画像記録再生装置から画像処理装置に、左眼と右眼の眼球画像を1フィールド毎あるいは1フレーム毎に交互に取り込ませてコンピュータ解析することで、両眼の眼球運動あるいは両眼の瞳孔の大きさをリアルタイムで計測し、その計測結果を示すグラフを表示装置に両眼同時に表示することができる。
For example, Patent Literature 1 discloses an eyeball image analysis system that can simultaneously measure eyeball movement and pupil size of both eyes in real time under the name of “eyeball image analysis system”.
According to the invention disclosed in Patent Literature 1, the eyeball photographing device, the image reproducing device, or the image recording / reproducing device causes the image processing device to alternately capture the eyeball images of the left eye and the right eye every field or every frame. By computer analysis, the eye movements of both eyes or the size of the pupils of both eyes can be measured in real time, and a graph showing the measurement result can be displayed on the display device simultaneously for both eyes.

また、特許文献2には、「めまい治療に用いることができる眼振計」という名称で、良性発作性頭位めまい症(BPPV)の治療の一種であるイプリー法を簡便に行なうことができる眼振計に関する発明が開示されている。
この特許文献2に開示される発明では、被験者の頭位を検出するための頭位検出部と、頭位検出部により得られたデータから、頭部の移動を解析するための頭位解析部と、眼球の動きを撮像するための眼球撮像部と、眼球撮像部により得られた眼球映像から眼球運動を解析するための眼球映像解析部とを有し、更に、頭位の解析結果に対する眼球映像の解析結果によって、被験者がとるべき姿勢を算出することが可能である。
Further, Patent Literature 2 discloses an eye capable of easily performing the ipley method, which is a type of treatment for benign paroxysmal positional vertigo (BPPV), under the name of “a nystagmus that can be used for the treatment of vertigo”. An invention relating to a vibrometer is disclosed.
In the invention disclosed in Patent Document 2, a head position detecting unit for detecting the head position of a subject, and a head position analyzing unit for analyzing the movement of the head from data obtained by the head position detecting unit And an eyeball imaging unit for imaging the movement of the eyeball, and an eyeball image analysis unit for analyzing eyeball movement from an eyeball image obtained by the eyeball imaging unit, and further, an eyeball for an analysis result of the head position The posture to be taken by the subject can be calculated based on the analysis result of the video.

さらに、特許文献3には、「眼球運動解析システム、眼球運動診断装置および眼球運動解析方法」という名称で、眼球の運動データを緩徐相と急速相とに適切に分離することができているのか否かを容易に確認することができるシステムや方法が開示されている。
この特許文献3に開示される発明では、平衡機能検査装置から得られるデータから眼球運動を解析する手法の1つである前庭動眼反射を用いた解析手法において、眼球位置が徐々に変位する緩徐相と急速に元の位置に戻る変位である急速相が交互に現れる「眼振」の緩徐相における眼球の第1変位ベクトルと、緩徐相の次の急速相における眼球の第2変位ベクトルとのなす角の度数分布を算出することで、眼球の運動データを緩徐相と急速相とに適切に分離することができているか否かを容易に確認することが可能である。
Furthermore, Patent Document 3 discloses that eye movement data can be appropriately separated into a slow phase and a fast phase under the name of “eye movement analysis system, eye movement diagnosis device, and eye movement analysis method”. A system and a method that can easily confirm whether or not the system has been disclosed are disclosed.
According to the invention disclosed in Patent Document 3, in an analysis method using vestibular oculomotor reflex which is one of methods for analyzing eye movement from data obtained from a balance function test apparatus, a slow phase in which an eyeball position is gradually displaced The first displacement vector of the eyeball in the slow phase of “nystagmus” in which the rapid phase, which is the displacement that quickly returns to the original position, alternates with the second displacement vector of the eyeball in the rapid phase following the slow phase. By calculating the frequency distribution of the angles, it is possible to easily confirm whether or not the eye movement data can be appropriately separated into a slow phase and a fast phase.

特開2001−321342号公報JP 2001-321342 A 特開2005−304912号公報JP 2005-304912 A 特開2014−104120号公報JP 2014-104120 A

しかしながら、特許文献1に開示される技術では、左眼と右眼の眼球運動に関する画像を交互にコンピュータ解析するものの、被検者の体勢や頭位に関するデータの採用がなく、左眼と右眼の眼球運動についてのデータが同時に表示されたとしても、どのような体勢あるいは頭位で採取されたデータであるかは不明という課題があった。
また、特許文献2に開示される技術では、頭位検出部と頭位解析部を備えて、頭部が移動する加速度や方向等を測定しつつ、眼振の有無を測定するものの、キャナリスの位置の特定は、この眼振の有無のデータを蓄積し、これらのデータとデータベースにおける過去のデータを演算部で照らし合わせて実行されるため、眼振の有無の測定の際にリアルタイムで頭位に関するデータが逐次必要となるわけでもない。したがって、眼振に関するデータと頭位に関するデータが紐付けされていない。
しかしながら、めまい症や平衡機能障害の診断・治療のために、瞳孔運動の測定映像を用いて眼振の解析を行う場合には、その測定時の頭位が解析に深く関わるため、瞳孔運動の測定映像と、測定時の頭位に関するデータと、眼振解析データを紐付けることは、後でデータを見て診断したり、後で再度眼振解析することを可能とする重要な要素である。すなわち、特許文献2に開示される技術のように眼振に関するデータと頭位に関するデータが紐付けられていない場合には、後でデータを見て診断したり、後で瞳孔運動の測定画像と頭位に関するデータから再度眼振解析を行うことができないという課題があった。
さらに、特許文献3に開示される技術でも、眼振データに対して緩徐相と急速相の分離が適切であるか否かの確認は容易に可能であるものの、眼振を引き起こした原因を明らかにするための頭位に関するデータについては何ら記載されるものはなく、頭位と眼振データを結び付けて診断したり治療法に用いたりすることができないという課題があった。
However, in the technology disclosed in Patent Literature 1, although the images related to the eye movements of the left eye and the right eye are computer-analyzed alternately, data on the posture and head position of the subject is not used, and the left eye and the right eye are not used. However, even if data on eye movements is displayed at the same time, there is a problem that it is unknown what kind of posture or head position the data was collected.
In the technique disclosed in Patent Document 2, a head position detection unit and a head position analysis unit are provided to measure the presence or absence of nystagmus while measuring the acceleration and direction of movement of the head. The position is determined by accumulating the data on the presence or absence of nystagmus and comparing this data with the past data in the database by the calculation unit, so that the head position is measured in real time when measuring the presence or absence of nystagmus. Neither is it necessary to have data on each time. Therefore, the data related to the nystagmus and the data related to the head position are not linked.
However, when nystagmus analysis is performed using pupil movement measurement images for the diagnosis and treatment of vertigo and equilibrium dysfunction, the head position during the measurement is deeply involved in the analysis. Linking the measurement image, the data related to the head position at the time of measurement, and the nystagmus analysis data is an important factor that enables the diagnosis by looking at the data later or the nystagmus analysis later. . That is, when the data relating to the nystagmus and the data relating to the head position are not linked as in the technique disclosed in Patent Literature 2, a diagnosis is made by looking at the data later, There is a problem that nystagmus analysis cannot be performed again from data on the head position.
Further, even with the technique disclosed in Patent Document 3, it is easy to confirm whether separation of the slow phase and the rapid phase is appropriate for nystagmus data, but the cause of nystagmus is clearly clarified. There is no description about the data on the head position for the purpose of making the diagnosis, and there is a problem that the head position and nystagmus data cannot be linked to be used for diagnosis or treatment.

本発明はかかる従来の事情に対処してなされたものであり、瞳孔運動の測定映像データと、その測定時の頭位データと、眼振解析データを紐付けて保存することで、測定時も測定後も一貫してこれらのデータを同期させながら表示して、医師による診断・治療を容易に行える眼振解析システムを提供することを目的とする。   The present invention has been made in view of such a conventional situation, the measurement image data of the pupil movement, the head position data at the time of measurement, the nystagmus analysis data by linking and saving, also at the time of measurement It is an object of the present invention to provide a nystagmus analysis system that can display these data consistently even after measurement while synchronizing them, so that a doctor can easily perform diagnosis and treatment.

上記目的を達成するため、第1の発明である眼振解析システムは、被検者の瞳孔を撮影するカメラと、前記被検者の頭位を測定する頭位センサと、前記カメラで撮影された瞳孔映像データを入力して眼振データを出力する眼振解析部と、出力部と、を有し、前記眼振解析部は、前記カメラで撮影された瞳孔映像データのフレーム毎の画像データを取得し、この取得をトリガーとして、前記頭位センサから頭位データを取得して前記画像データに紐付けると共に、前記画像データを用いて眼振解析して前記眼振データを生成して前記画像データ又は前記頭位データに紐付け、前記出力部は、紐付けされた前記画像データ、前記頭位データ及び前記眼振データのうち、少なくとも2つのデータを出力することを特徴とするものである。
上記構成の眼振解析システムでは、眼振解析部が、瞳孔映像データの中からフレーム毎の画像データを取得し、この取得をトリガーとして、頭位センサから頭位データを取得して画像データに紐付けるように作用する。また、眼振解析部は画像データを用いて眼振解析して眼振データを生成するように作用し、さらに、眼振データに対して画像データ又は頭位データに紐付けるように作用する。
なお、本願で画像データの取得をトリガーとして頭位データを取得するというのは、画像データの取得のタイミングでトリガーとなる信号や関数を生成あるいは呼び出し、その信号や関数をトリガーとして頭位データを取得するという意味である。また、本願でフレーム毎とは、フレーム1つ1つ毎の他、予め定めた複数のフレーム毎の両方の意味を含むものである。
In order to achieve the above object, a nystagmus analysis system according to a first aspect of the present invention includes a camera for photographing a pupil of a subject, a head position sensor for measuring a head position of the subject, and an image captured by the camera. A nystagmus analysis unit that inputs pupil video data and outputs nystagmus data, and an output unit, wherein the nystagmus analysis unit outputs image data for each frame of pupil video data captured by the camera. With this acquisition as a trigger, while acquiring head position data from the head position sensor and linking it to the image data, generating the nystagmus data by performing nystagmus analysis using the image data, Linked to image data or the head position data, wherein the output unit outputs at least two data among the linked image data, the head position data, and the nystagmus data. is there.
In the nystagmus analysis system having the above configuration, the nystagmus analysis unit acquires image data for each frame from the pupil video data, and with this acquisition as a trigger, acquires head position data from the head position sensor and converts the image data into image data. Acts like tying. The nystagmus analysis unit operates to generate nystagmus data by performing nystagmus analysis using the image data, and furthermore, acts to associate the nystagmus data with image data or head position data.
In the present application, acquiring head position data with image data acquisition as a trigger means generating or calling a signal or function as a trigger at the image data acquisition timing, and using the signal or function as a trigger to generate the head position data. It means to get. Further, in the present application, each frame includes both the meaning of each frame and the meaning of each of a plurality of predetermined frames.

また、第2の発明である眼振解析システムは、第1の発明において、前記眼振解析部は、頭位データに対するしきい値を備え、前記被検者の姿勢を判断して姿勢データを生成し、前記出力部は、前記姿勢データを出力することを特徴とするものである。
上記構成の眼振解析システムでは、第1の発明の作用に加えて、眼振解析部が姿勢データを生成するように作用する。
In a nystagmus analysis system according to a second invention, in the first invention, the nystagmus analysis unit includes a threshold value for head position data, determines a posture of the subject, and converts the posture data. Generating, and the output unit outputs the posture data.
In the nystagmus analysis system having the above configuration, in addition to the operation of the first aspect, the nystagmus analysis unit operates to generate posture data.

そして、第3の発明である眼振解析システムは、第2の発明において、前記眼振解析部は、予め所望に定められた複数の検査工程の開始と終了を前記姿勢データを用いて判断し、前記出力部は、前記複数の検査工程のうち実行中の検査工程を表示することを特徴とするものである。
上記構成の眼振解析システムでは、第2の発明の作用に加えて 眼振解析部が姿勢データを用いて複数の検査工程の開始と終了を判断するように作用する。また、出力部は、実行中の検査工程を表示するように作用する。
The nystagmus analysis system according to a third invention is the nystagmus analysis system according to the second invention, wherein the nystagmus analysis unit determines the start and end of a plurality of inspection processes predetermined in advance using the posture data. The output unit displays a currently executed inspection step among the plurality of inspection steps.
In the nystagmus analysis system having the above configuration, in addition to the operation of the second aspect, the nystagmus analysis unit acts to determine the start and end of the plurality of inspection processes using the posture data. The output unit operates to display the currently executed inspection process.

さらに、第4の発明である眼振解析システムは、請求項1乃至請求項3のいずれか1項に記載の眼振解析システムにおいて、前記頭位センサは、前記被検者が所望の方向を向いている状態で前記頭位データをリセットする機能を備えることを特徴とするものである。
上記構成の眼振解析システムでは、第1の発明乃至第3の発明のいずれか1つの発明の作用に加えて、頭位センサは被検者が所望の方向を向いている状態で頭位データをリセットするように作用する。
Furthermore, in a nystagmus analysis system according to a fourth aspect of the present invention, in the nystagmus analysis system according to any one of claims 1 to 3, the head position sensor may be configured so that the subject can move in a desired direction. The head position data is provided with a function of resetting the head position data in a state in which the head position data is oriented.
In the nystagmus analysis system having the above configuration, in addition to the operation of any one of the first to third aspects of the present invention, the head position sensor detects the head position data while the subject is in a desired direction. Acts to reset.

さらに、第5の発明である眼振解析システムは、請求項1乃至請求項4のいずれか1項に記載の眼振解析システムにおいて、前記眼振解析部は、前記頭位データに基づいて前記被検者のアバターを生成し、前記出力部は、前記アバターを出力することを特徴とするものである。
上記構成の眼振解析システムでは、第1の発明乃至第4の発明のいずれか1つの発明の作用に加えて、眼振解析部は頭位データに基づいて被検者のアバターを生成するように作用する。また、出力部がそのアバターを出力するように作用する。
なお、アバターとは、被検者の分身となるキャラクターを意味し、本願発明では被検者の頭部の形状、向きを模したアニメーションを意味するものである。
Furthermore, a nystagmus analysis system according to a fifth invention is the nystagmus analysis system according to any one of claims 1 to 4, wherein the nystagmus analysis unit is configured to perform the nystagmus analysis based on the head position data. An avatar of the subject is generated, and the output unit outputs the avatar.
In the nystagmus analysis system having the above configuration, in addition to the operation of any one of the first to fourth aspects, the nystagmus analysis unit generates an avatar of the subject based on the head position data. Act on. Also, the output section operates to output the avatar.
In addition, the avatar means a character that is an alter ego of the subject, and in the present invention, means an animation that imitates the shape and direction of the head of the subject.

本発明の第1の発明である眼振解析システムでは、測定時では、瞳孔映像データと頭位データを紐付けて眼振解析し、眼振解析データと頭位データも紐付けていずれの眼振解析データがいずれの頭位データ時に得られたものであるかを対応させて確認することができ、また、測定後に、改めて眼振解析に用いる瞳孔映像データの範囲を変更して再度眼振解析する際に、瞳孔映像データと紐付いた頭位データを診断することが可能であり、さらに、新たな眼振解析データに対しても頭位データを紐付けることができ、一旦瞳孔映像データを取得すれば、その時以降いつでも、瞳孔映像データ、頭位データ及び眼振解析データをそれぞれ同期させた状態で、確認することが可能である。したがって、医師は一度瞳孔映像データを取得することで、同時あるいはその後いつでも瞳孔映像データ、頭位データ及び眼振解析データのうち、少なくとも2つを対応させてめまい症や平衡機能障害の診断・治療に活用することができる。
しかも、画像データ、頭位データ及び眼振データが紐付けられているので、解析された眼振データにおいて、ある時点における1点のデータを読み出してもその解析された眼振データの基となった画像データと頭位データそのものを得ることができ、それらの対応を確認することができ、しかも、測定した後に画像データと頭位データを紐付けしてデータを格納するので、画像データを再生する際にも頭位データが紐付けされており、その状態で眼振を解析して得られる眼振データとの紐付けも維持されるので、検査後にデータの再生を行い、解析を行っても同様に画像データのフレーム単位での頭位データや眼振データとの同期は保持されるので、より精度が高く信頼性の高い解析と同期性が担保されることから検査のやり直しや検査時の調整、医師の関与が不要であり極めて効率性の高い検査が可能である。
In the nystagmus analysis system according to the first invention of the present invention, at the time of measurement, pupil image data and head position data are linked and nystagmus analysis is performed. It is possible to confirm in which head position data the nystagmus analysis data was obtained at the corresponding time.After measurement, the range of pupil image data used for nystagmus analysis was changed again and At the time of analysis, it is possible to diagnose head position data associated with pupil image data, and also to associate head position data with new nystagmus analysis data. If acquired, it is possible to check the pupil image data, head position data, and nystagmus analysis data at any time after that, in a state where they are synchronized. Therefore, a doctor acquires pupil image data once, and simultaneously or at any time thereafter, associates at least two of the pupil image data, head position data, and nystagmus analysis data with each other to diagnose and treat vertigo and imbalance dysfunction. It can be used for
Moreover, since the image data, the head position data, and the nystagmus data are linked, even if one point of data at a certain point in the analyzed nystagmus data is read, the data of the analyzed nystagmus data becomes the basis. You can obtain the image data and the head position data itself, confirm the correspondence between them, and store the data by linking the image data and head position data after measurement, so that the image data is reproduced The head position data is also linked when performing, and the link with the nystagmus data obtained by analyzing the nystagmus in that state is maintained, so the data is reproduced after the examination and analyzed Similarly, the synchronization of the head position data and the nystagmus data in the frame unit of the image data is maintained, so more accurate and reliable analysis and synchronization are ensured. of Integer, it is unnecessary to involve a physician are possible very efficient check.

本発明の第2の発明である眼振解析システムでは、第1の発明の効果に加えて、姿勢データを出力した出力部によって被検者の姿勢を把握しつつ、その姿勢で瞳孔映像データが取得されていることも把握することができる。   In the nystagmus analysis system according to the second aspect of the present invention, in addition to the effect of the first aspect, the pupil image data is obtained by the posture while grasping the posture of the subject by the output unit that outputs the posture data. It can also be grasped that it has been acquired.

本発明の第3の発明である眼振解析システムでは、第2の発明の効果に加えて、眼振解析部が、予め所望に定められた複数の検査工程の開始と終了を、姿勢データを用いて判断するので、医師の意思によって検査の開始と終了を決定しなくとも複数の検査工程を移行することが可能である。すなわち、検査における測定や解析を自動的に進めることが可能である。
また、出力部が、いずれの検査工程が実行中であるのかを表示するので医師は検査の進行状況をリアルタイムで把握することができる。
In the nystagmus analysis system according to the third invention of the present invention, in addition to the effects of the second invention, the nystagmus analysis unit determines the start and end of a plurality of inspection processes predetermined as desired, and sets the posture data. Since the judgment is made by using, it is possible to shift the plurality of examination steps without determining the start and end of the examination according to the doctor's intention. That is, it is possible to automatically advance measurement and analysis in the inspection.
In addition, the output unit displays which test process is being executed, so that the doctor can grasp the progress of the test in real time.

本発明の第4の発明である眼振解析システムでは、第1の発明乃至第3の発明のいずれかの発明の効果に加えて、頭位センサが、被検者が所望の方向を向いている状態で頭位データをリセットするので、瞳孔映像データを取得する際に、被検者の頭位あるいは姿勢の基準点を、座位であっても臥位であっても所望に定めることが可能である。また、瞳孔映像データの取得毎にその前にリセットすることによれば、複数回のデータ取得であっても、瞳孔映像データ毎に基準点が一定であり、以前の瞳孔映像データの基準点との混同を排除することができる。   In the nystagmus analysis system according to the fourth aspect of the present invention, in addition to the effects of any one of the first to third aspects, the head position sensor is provided so that the subject faces a desired direction. When the pupil image data is acquired, the reference point of the subject's head position or posture can be set as desired regardless of whether the subject is sitting or lying when acquiring pupil image data. It is. In addition, according to the reset before each acquisition of the pupil image data, the reference point is constant for each pupil image data even if the data is acquired a plurality of times, and the reference point of the previous pupil image data is Can be eliminated.

本発明の第5の発明である眼振解析システムでは、第1の発明乃至第4の発明のいずれかの発明の効果に加えて、眼振解析部が被験者の頭位データに基づいてアバターを生成して、出力部がそれを出力することで、医師は被検者の頭の向きを直感的に容易に確認することが可能である。頭位データは角度等でデジタルで表現されるが、アバターは被検者の頭部の向きを模して示すので直感的に容易に被検者の頭位を把握することができるのである。   In a nystagmus analysis system according to a fifth aspect of the present invention, in addition to the effects of any one of the first to fourth aspects, the nystagmus analysis unit generates an avatar based on the head position data of the subject. The doctor can generate the output and output it, so that the doctor can easily and intuitively confirm the orientation of the subject's head. The head position data is digitally represented by an angle or the like, but the avatar simulates the head direction of the subject, so that the head position of the subject can be easily grasped intuitively.

本発明の実施の形態に係る眼振解析システムの構成を表すブロック構成図である。1 is a block diagram illustrating a configuration of a nystagmus analysis system according to an embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムのVOGゴーグルの構造を示す概念図である。It is a key map showing the structure of the VOG goggles of the nystagmus analysis system concerning an embodiment of the invention. 本発明の実施の形態に係る眼振解析システムのVOGゴーグルに取り付ける赤外線カメラユニットの概念図である。It is a conceptual diagram of the infrared camera unit attached to VOG goggles of the nystagmus analysis system according to the embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムの解析部で用いられる頭位データに関する角度と軸を示す概念図であり、(a)は振角を示す概念図、(b)は仰角を示す概念図、(c)は回転角を示す概念図、(d)はそれぞれの角に対する回転軸を示す概念図である。It is a conceptual diagram which shows the angle and axis regarding the head position data used by the analysis part of the nystagmus analysis system according to the embodiment of the present invention. FIG. 3C is a conceptual diagram showing a rotation angle, and FIG. 4D is a conceptual diagram showing a rotation axis for each angle. 本発明の実施の形態に係る眼振解析システムの解析部で実行される画像データと頭位データの取得及び眼振データの解析及びこれらのデータに対する紐付け処理のタイミングを示す概念図である。It is a conceptual diagram which shows the timing of acquisition of image data and head position data, analysis of nystagmus data, and linking processing to these data which are performed by the analysis unit of the nystagmus analysis system according to the embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムの構成を表す概念図である。1 is a conceptual diagram illustrating a configuration of a nystagmus analysis system according to an embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムを用いてなされる解析のフローチャートである。5 is a flowchart of an analysis performed using the nystagmus analysis system according to the embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムのディスプレイに示される眼振検査時表示画面の概念図である。It is a conceptual diagram of the display screen at the time of a nystagmus test shown on the display of the nystagmus analysis system according to the embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムのディスプレイに示される眼振検査時画像の概念図である。It is a conceptual diagram of the image at the time of a nystagmus test shown on the display of the nystagmus analysis system according to the embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムのディスプレイに示される検査開始時の操作画面の概念図である。It is a conceptual diagram of the operation screen at the time of an examination start shown on the display of the nystagmus analysis system according to the embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムのディスプレイに示される頭位眼振検査(座位)中の操作画面の概念図である。It is a conceptual diagram of the operation screen during the head posture nystagmus test (seated position) shown on the display of the nystagmus analysis system according to the embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムのディスプレイに示される頭位眼振検査(座位)中の操作画面の概念図である。It is a conceptual diagram of the operation screen during the head posture nystagmus test (seated position) shown on the display of the nystagmus analysis system according to the embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムのディスプレイに示される頭位眼振検査(座位)中の操作画面の概念図である。It is a conceptual diagram of the operation screen during the head posture nystagmus test (seated position) shown on the display of the nystagmus analysis system according to the embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムのディスプレイに示される頭位眼振検査(座位)中の操作画面の概念図である。It is a conceptual diagram of the operation screen during the head posture nystagmus test (seated position) shown on the display of the nystagmus analysis system according to the embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムのディスプレイに示される頭位眼振検査(座位)中の操作画面の概念図である。It is a conceptual diagram of the operation screen during the head posture nystagmus test (seated position) shown on the display of the nystagmus analysis system according to the embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムのディスプレイに示される頭位眼振検査(座位)後の診断時の操作画面の概念図である。It is a conceptual diagram of the operation screen at the time of the diagnosis after the head posture nystagmus examination (sitting) shown on the display of the nystagmus analysis system according to the embodiment of the present invention. 本発明の実施の形態に係る眼振解析システムのディスプレイに示される頭振り眼振検査中の操作画面の概念図である。FIG. 4 is a conceptual diagram of an operation screen during a head nystagmus test shown on the display of the nystagmus analysis system according to the embodiment of the present invention.

以下に、本発明の第1の実施の形態に係る眼振解析システムについて図1乃至図3を参照しながら説明する。
図1は、本発明の第1の実施の形態に係る眼振解析システムの構成を示すブロック図である。図2及び図3は、本発明の実施の形態に係る眼振解析システムのVOGゴーグルの構造を示す概念図である。図4は、本発明の実施の形態に係る眼振解析システムの解析部で用いられる頭位データに関する軸と角度を示す概念図であり、図5は、本発明の実施の形態に係る眼振解析システムの解析部で実行される画像データと頭位データの取得及び眼振データの解析及びこれらのデータに対する紐付け処理のタイミングを示す概念図である。
The nystagmus analysis system according to the first embodiment of the present invention will be described below with reference to FIGS.
FIG. 1 is a block diagram showing the configuration of the nystagmus analysis system according to the first embodiment of the present invention. 2 and 3 are conceptual diagrams showing the structure of VOG goggles of the nystagmus analysis system according to the embodiment of the present invention. FIG. 4 is a conceptual diagram showing axes and angles related to head position data used in the analysis unit of the nystagmus analysis system according to the embodiment of the present invention, and FIG. 5 is a nystagmus according to the embodiment of the present invention. It is a conceptual diagram which shows the timing of the acquisition of image data and head position data, the analysis of nystagmus data, and the linking process with respect to these data which are performed by the analysis unit of the analysis system.

図1において、眼振解析システム1は、VOGゴーグル4、解析部8、入力部2、出力部3及びデータベース14から構成されている。
入力部2は、被検者又は患者の氏名、年齢、性別、識別番号(ID)、既往症、診察歴や診察結果等のデータや、試験あるいは診察している医師に関するデータ、試験あるいは診察の日時や温度、湿度等、試験・診察環境に関するデータを入力する。また、後で説明するが、眼振解析システム1では、頭位センサからのデータを基に姿勢解析を行うが、その際にいずれの姿勢であるかを評価するための頭位データしきい値を予め入力し、読み出し可能にデータベースに格納する。
入力部2の具体例としては、キーボード、マウス、ペンタブレット、フットスイッチ、タッチスイッチ、光学式の読取装置あるいはコンピュータ等の解析装置や計測機器等から通信回線を介してデータを受信する受信装置など複数種類の装置からなり目的に応じた使い分け可能な装置が考えられる。また、眼振解析システム1への入力に対するインターフェースのようなものであってもよい。
また、出力部3は、VOGゴーグル4で取得されたデータや解析部8における処理結果あるいは解析結果25に関するデータや、処理あるいは解析時における条件やデータ入力を促すための入力画面(インターフェース画面)等の情報について外部に出力するものであり、あるいはデータベース14に格納されているデータを読み出して外部へ出力するものである。具体的にはCRT、液晶、プラズマあるいは有機ELなどによるディスプレイ装置、あるいはプリンタ装置などの出力装置、さらには外部装置への伝送を行うためのトランスミッタなどの発信装置などが考えられる。もちろん、外部装置への伝送のための出力に対するインターフェースのようなものであってもよい。
VOGゴーグル4は、カメラ5とマイク6と頭位センサ7を備えており、それぞれ画像データ17、音声データ18、頭位データ19を生成する。これらのデータは解析部8を介してデータベース14に読み出し可能に格納されると共に解析部8における処理や解析に用いられる。このVOGゴーグル4の構成については図2乃至図4を参照しながら詳細に説明する。
1, the nystagmus analysis system 1 includes a VOG goggle 4, an analysis unit 8, an input unit 2, an output unit 3, and a database 14.
The input unit 2 includes data such as a subject's or patient's name, age, gender, identification number (ID), medical history, examination history and examination results, data on a doctor who is examining or examining, date and time of examination or examination. Enter data related to the test / diagnosis environment such as temperature, humidity, etc. As will be described later, the nystagmus analysis system 1 performs a posture analysis based on data from the head position sensor. At this time, a head position data threshold value for evaluating which posture the head is in is determined. Is input in advance and stored in a database in a readable manner.
Specific examples of the input unit 2 include a keyboard, a mouse, a pen tablet, a foot switch, a touch switch, an optical reading device, and a receiving device that receives data from an analyzing device such as a computer or a measuring device via a communication line. A device that is composed of a plurality of types of devices and can be properly used according to the purpose is conceivable. Further, it may be an interface for input to the nystagmus analysis system 1.
The output unit 3 includes data obtained by the VOG goggles 4, data on the processing result or analysis result 25 by the analysis unit 8, an input screen (interface screen) for prompting input of conditions and data at the time of processing or analysis, and the like. Is output to the outside, or the data stored in the database 14 is read out and output to the outside. Specifically, a display device using a CRT, a liquid crystal, a plasma, an organic EL, or the like, an output device such as a printer device, and a transmitting device such as a transmitter for transmitting to an external device are conceivable. Of course, it may be an interface for output for transmission to an external device.
The VOG goggles 4 include a camera 5, a microphone 6, and a head position sensor 7, and generate image data 17, voice data 18, and head position data 19, respectively. These data are readably stored in the database 14 via the analysis unit 8 and used for processing and analysis in the analysis unit 8. The configuration of the VOG goggles 4 will be described in detail with reference to FIGS.

VOGゴーグル4は、図2,3に示されるとおり、暗視カバー30で覆うことのできるゴーグル本体31の中に、カメラ5として、ホットミラー32、カメラレンズ33、カメラ本体34を備えており、さらに、カメラ本体34の内部に撮像ICとしてCMOS基板36を備えている。また、画像を撮るための光源として赤外線LED35を備えている。赤外線は人間の眼で反応しないので、自然光の影響を排除して眼球の運動を撮影するには好適である。赤外線LED35から出射された赤外線はホットミラー32で反射されて被検者の眼球を照射し、眼球で反射された赤外線は再度ホットミラー32で反射されてカメラレンズ33を介してカメラ本体34の中のCMOS基板36に取り込まれ、眼球運動の画像データ17が生成される。
さらに、VOGゴーグル4は、図3に示されるとおり、頭位センサ7として9軸センサ基板37を内蔵しており、VOGゴーグル4を装着した被検者の頭位を測定して頭位データ19を生成することができる。9軸センサ基板37は、3軸ジャイロセンサと3軸加速度センサと3軸地磁気センサから構成されるものである。
CMOS基板36で生成される画像データ17と9軸センサ基板37で生成される頭位データ19は、カメラインターフェース基板38を介してUSBケーブル39で解析部8へ出力される。
なお、9軸センサ基板37による頭位の測定は、頭位を角度で測定するものであり、9軸センサ基板37から取得したデータから図4に示す頭位角度、α(振角)、β(仰角)、γ(回転角)で表現される。本実施の形態における測定や解析では、α(振角)の右傾、β(仰角)の後傾、γ(回転角)の右転をそれぞれ+(プラス)とし、その逆をそれぞれ−(マイナス)としている。また、これらの角度の回転軸は図4(d)に示されるとおり、被検者の頭に対して軸を概念し、α(振角)がx軸55、β(仰角)がy軸56、γ(回転角)がw軸57としている。また、頭位センサ7は、被検者が所望の方向を向いている状態で頭位データ19をリセットする機能を備えている。その効用については後述する。
2 and 3, the VOG goggle 4 includes a hot mirror 32, a camera lens 33, and a camera body 34 as the camera 5 in a goggle body 31 that can be covered with a night vision cover 30. Further, a CMOS substrate 36 is provided inside the camera body 34 as an imaging IC. Further, an infrared LED 35 is provided as a light source for taking an image. Since infrared rays do not react with human eyes, they are suitable for photographing the movement of the eyeball while eliminating the influence of natural light. The infrared light emitted from the infrared LED 35 is reflected by the hot mirror 32 and irradiates the eyeball of the subject, and the infrared light reflected by the eyeball is reflected again by the hot mirror 32 and passes through the camera lens 33 into the camera body 34. And the image data 17 of the eye movement is generated.
Further, as shown in FIG. 3, the VOG goggles 4 incorporate a 9-axis sensor board 37 as the head position sensor 7, measure the head position of the subject wearing the VOG goggles 4, and obtain head position data 19. Can be generated. The 9-axis sensor board 37 includes a 3-axis gyro sensor, a 3-axis acceleration sensor, and a 3-axis geomagnetic sensor.
The image data 17 generated by the CMOS board 36 and the head position data 19 generated by the 9-axis sensor board 37 are output to the analysis unit 8 via the camera interface board 38 via the USB cable 39.
The measurement of the head position by the 9-axis sensor board 37 is performed by measuring the head position by an angle, and the head position angle, α (shaking angle), β shown in FIG. (Elevation angle) and γ (rotation angle). In the measurement and analysis in the present embodiment, the right inclination of α (oscillation angle), the backward inclination of β (elevation angle), and the right rotation of γ (rotation angle) are + (plus), and the opposite is − (minus). And Further, as shown in FIG. 4D, the rotation axis of these angles is an axis with respect to the subject's head, and α (shaking angle) is the x-axis 55, and β (elevation angle) is the y-axis 56. , Γ (rotation angle) are the w-axis 57. Further, the head position sensor 7 has a function of resetting the head position data 19 when the subject is facing a desired direction. Its utility will be described later.

本実施の形態におけるVOGゴーグル4は、図2,3には示されていないがゴーグル本体31内の空いているスペースにマイク6を内蔵して音声データ18を取得している。音声データ18は医師と被検者の間の会話や、医師が診察や検査中にメモを取ることが困難な場合に、音声によるメモを取るためのものである。音声データ18は解析部8を介してデータベース14に読み出し可能に格納される。このマイク6は必ずしもVOGゴーグル4に内蔵されなくともよく、入力部2に設けたり、VOGゴーグル4外に別体としてマイク6を備えて解析部8に接続してもよく、さらに直接解析部8に設けてもよい。
また、本実施の形態では、撮像ICとしてCMOS基板36を備えているが、CMOS基板36に代えてCCD基板を採用してもよく、頭位センサ7として9軸センサ基板37に代えて3軸ジャイロセンサと3軸加速度センサから構成される6軸センサ基板を採用してもよい。
解析部8は、データ処理部9、瞳孔検出処理部10、瞳孔回転角解析部11、水平・垂直・回旋速度解析部12及び姿勢解析部13を備える構成となっている。
データ処理部9は、VOGゴーグル4に内蔵されるカメラ5で生成される画像データ17を構成する個々のフレームを取得するが、その取得毎にコールバック関数を呼び出し、このコールバック関数の呼出しのタイミングによって頭位センサ7で生成された頭位データ19を取得して、画像データ17のフレーム毎に頭位データ19を紐付ける。これらのデータの取得と紐付けのタイミングについて図5を参照しながら説明を加える。
The VOG goggles 4 according to the present embodiment acquire the audio data 18 by incorporating the microphone 6 in an empty space in the goggle body 31 although not shown in FIGS. The voice data 18 is used for conversation between the doctor and the subject, and for taking notes by voice when it is difficult for the doctor to take notes during a medical examination or examination. The audio data 18 is stored in the database 14 via the analysis unit 8 in a readable manner. The microphone 6 does not necessarily have to be built in the VOG goggles 4 and may be provided in the input unit 2 or may be provided separately from the VOG goggles 4 and connected to the analysis unit 8. May be provided.
Further, in the present embodiment, the CMOS substrate 36 is provided as the imaging IC, but a CCD substrate may be employed instead of the CMOS substrate 36, and the head position sensor 7 may be replaced by a three-axis sensor substrate 37 instead of the nine-axis sensor substrate 37. A six-axis sensor board including a gyro sensor and a three-axis acceleration sensor may be employed.
The analysis unit 8 includes a data processing unit 9, a pupil detection processing unit 10, a pupil rotation angle analysis unit 11, a horizontal / vertical / rotational speed analysis unit 12, and a posture analysis unit 13.
The data processing unit 9 acquires the individual frames constituting the image data 17 generated by the camera 5 built in the VOG goggle 4, and calls a callback function each time the acquisition is performed, and calls the callback function. The head position data 19 generated by the head position sensor 7 is acquired at the timing, and the head position data 19 is associated with each frame of the image data 17. The timing of acquiring and linking these data will be described with reference to FIG.

図5において、3つの線図が描かれているが、一番上の線図がFVAL信号線図60である。この線図で上に凸の部分の1つ1つが画像データ17を構成するフレームを取得している際の信号である。したがって、凸状の部分の最後に落ちている箇所が1つのフレームの画像を取得し終わったタイミングであり、このタイミングでコールバック関数を呼び出して頭位データ19を取得する。
すなわち、符号61は頭位データ取得線図であり、符号63はコールバック関数呼出タイミング63であり、符号64は頭位データ19の取得タイミングを表す頭位データ取得表示64である。
さらに、図5の一番下の線図は、解析部8のデータ処理部9及び瞳孔検出処理部10で実行される処理、瞳孔回転角解析部11−姿勢解析部13で実行される解析の実行タイミングを凸状の部分で示している処理・解析線図62である。
したがって、眼振データ20に関する解析や姿勢データ21に関する解析は処理・解析タイミング表示65で示される凸状の部分のタイミングで実行されており、フレーム毎の画像データ17と頭位データ19との紐付けも処理・解析タイミング表示65で示される凸状の部分のタイミングで実行されている。
なお、本願で言う「紐付け」とは、アナログで連続的に取得されるデータを離散化させて、それぞれの離散化されたデータ同士を関連付けること及び関連付けて記録することを意味する。データ処理部9は、画像データ17をフレーム毎に分解し、そのフレーム毎の取得のタイミングで、データ処理部9内部でコールバック関数が呼び出され、そのコールバック関数の呼出しをトリガーとしてVOGゴーグル4に内蔵される頭位センサ7で生成される頭位データ19を取得し、画像データ17のフレーム毎に頭位データ19を関連付けてデータベース14に記録するのである。
この紐付けによって、フレーム毎の画像データ17に、そのフレームを取得した際の頭位データ19が対応した状態でデータベース14に記録されることになり、記録後にデータベース14から画像データ17を読み出しても、そのフレーム毎に対応した頭位データ19も読み出すことができる。逆に、頭位データ19を読み出す場合でも、その頭位データ19を取得したタイミング時のフレームにおける画像データ17も読み出すことが可能である。
In FIG. 5, three diagrams are drawn, and the top diagram is the FVAL signal diagram 60. In the diagram, each of the upwardly convex portions is a signal when a frame constituting the image data 17 is obtained. Accordingly, the last drop of the convex portion is the timing at which the image of one frame has been acquired, and at this timing, the callback function is called to acquire the head position data 19.
That is, reference numeral 61 is a head position data acquisition diagram, reference numeral 63 is a callback function call timing 63, and reference numeral 64 is a head position data acquisition display 64 indicating acquisition timing of the head position data 19.
Further, the bottom diagram of FIG. 5 shows the processing executed by the data processing unit 9 and the pupil detection processing unit 10 of the analysis unit 8 and the analysis executed by the pupil rotation angle analysis unit 11 and the posture analysis unit 13. FIG. 63 is a processing / analysis diagram 62 showing execution timing by a convex portion.
Therefore, the analysis related to the nystagmus data 20 and the analysis related to the posture data 21 are executed at the timing of the convex portion indicated by the processing / analysis timing display 65, and the link between the image data 17 and the head position data 19 for each frame is performed. Attachment is also performed at the timing of the convex portion indicated by the processing / analysis timing display 65.
It should be noted that the term “linking” as used in the present application means that data obtained continuously in analog form is discretized, and the discretized data is associated with each other and recorded in association with each other. The data processing unit 9 decomposes the image data 17 for each frame, and at the timing of acquisition for each frame, a callback function is called inside the data processing unit 9, and the VOG goggle 4 is triggered by the calling of the callback function. The head position data 19 generated by the head position sensor 7 incorporated in the image data 17 is acquired, and the head position data 19 is recorded in the database 14 in association with each frame of the image data 17.
By this linking, the head position data 19 at the time of acquiring the frame is recorded in the database 14 in a state corresponding to the image data 17 for each frame, and the image data 17 is read from the database 14 after the recording. Also, the head position data 19 corresponding to each frame can be read. Conversely, even when the head position data 19 is read, the image data 17 in the frame at the timing when the head position data 19 is acquired can also be read.

瞳孔検出処理部10は、被検者の眼球運動を解析するために、画像データ17のフレーム毎に、瞳孔を画像処理によって検出する。この瞳孔検出処理部10における瞳孔検出処理に際しては、予め新規の被検者に対してキャリブレーションを実行しておく必要がある。
具体的には、試験実施の前に、被検者に対してまず、正面正視画像を取得し、予めデータベース14に格納されている瞳孔探索範囲22及び探索パラメータ23を参照しながら、瞳孔のゼロ位置(中心位置)を決定しつつ、瞳孔を画像処理によって検出する。その際、瞳孔の虹彩紋理パターン24に関するデータを取得しておく。また、取得した虹彩紋理パターンの水平方向における境界を指定して虹彩紋理の水平幅の計測を行い、データを取得しておく。このような虹彩紋理パターン24やその水平幅に関するデータを取得することで、眼球の運動解析を行うことが可能となる。なお、探索パラメータ23とは主として画像処理パラメータを意味しており、例えば画像の二値化パラメータやノイズ除去のためのパラメータ、推定瞳孔サイズ範囲に関するデータ等を指している。
さらに、眼球運動の解析を行う際の範囲を指定しておく。具体的には、目頭と目尻を目安として水平範囲を予め定めておき、垂直範囲はまぶたが最大に開く範囲を目安として予め定めておく。この解析範囲を設定してデータとして取得することで、解析の障害となる瞳孔以外の黒いエリア等を除去できる。
このキャリブレーションによって、得られるデータもデータベース14に読み出し可能に格納しておくとよい。
The pupil detection processing unit 10 detects the pupil by image processing for each frame of the image data 17 in order to analyze the eye movement of the subject. In the pupil detection processing in the pupil detection processing unit 10, it is necessary to execute calibration on a new subject in advance.
Specifically, before conducting the test, the subject first obtains a frontal emmetropia image, and refers to the pupil search range 22 and the search parameter 23 stored in the database 14 in advance to obtain a zero pupil position. The pupil is detected by image processing while determining the position (center position). At this time, data on the iris pattern 24 of the pupil is obtained in advance. In addition, the horizontal width of the iris pattern is measured by designating the horizontal boundary of the obtained iris pattern, and data is obtained. Obtaining such data relating to the iris pattern 24 and the horizontal width thereof enables the analysis of the movement of the eyeball. Note that the search parameter 23 mainly means an image processing parameter, for example, a binarization parameter of an image, a parameter for noise removal, data on an estimated pupil size range, and the like.
In addition, a range for analyzing the eye movement is specified. Specifically, the horizontal range is determined in advance using the inner and outer corners of the eye as a guide, and the vertical range is determined in advance using the range in which the eyelids open to the maximum. By setting this analysis range and acquiring it as data, it is possible to remove a black area other than the pupil which becomes an obstacle to the analysis.
The data obtained by this calibration may be stored in the database 14 in a readable manner.

瞳孔検出処理部10は、データベース14に予め登録されている瞳孔探索範囲22及び探索パラメータ23を読み出して、この範囲内で黒い丸を瞳孔として検出することを可能とするものである。さらに、検出された瞳孔の虹彩紋理パターン24に関するデータを取得する。また、取得した虹彩紋理パターン24の水平方向における境界を指定して虹彩紋理の水平幅の計測を行い、データを取得しておく。これらのデータは、瞳孔検出処理部10によってデータベース14に読み出し可能に格納される。
瞳孔回転角解析部11は、瞳孔検出処理部10でフレーム毎の画像データ17で検出された瞳孔の回転角を解析する。瞳孔の回転角は、キャリブレーションで測定された瞳孔のゼロ位置や瞳孔周囲の虹彩紋理パターン24を基準として、フレーム毎の虹彩紋理パターン24の変化の角度量として解析される。また、その角度量は、水平成分、垂直成分、回旋成分毎に解析され、それらのデータはそれぞれ眼振データ20として瞳孔回転角解析部11によって読み出し可能にデータベース14に格納される。
次に、水平・垂直・回旋速度解析部12は、瞳孔回転角解析部11で取得された瞳孔の回転角に関するデータの時間変化を、水平速度、垂直速度、回旋速度として解析し、それらのデータもそれぞれ眼振データ20として読み出し可能にデータベース14に格納する。なお、この時間変化における単位時間としてはフレーム間の時間、あるいは予め定めたフレーム数の間の時間でもよいし、秒単位で予め定めた時間であってもよい。
データ処理部9は、瞳孔回転角解析部11及び水平・垂直・回旋速度解析部12で取得される眼振データ20、すなわち、瞳孔の水平成分、垂直成分、回旋成分の回転角に関するデータとそれぞれの時間変化に関する水平速度、垂直速度、回旋速度に関するデータとそれらの解析の基となったフレームの画像データ17又は画像データ17のフレーム毎に紐付けられた頭位データ19と紐付けを行う。前述のとおり、画像データ17と頭位データ19は画像データ17のフレーム毎にデータ処理部9によって紐付けされているので、眼振データ20はいずれか一方と紐付けされることで、いずれにも紐付けされることになる。なお、この眼振データ20に関するデータ処理部9による紐付けも図5の処理・解析タイミング表示65の凸状の部分で実行される。
The pupil detection processing section 10 reads out a pupil search range 22 and search parameters 23 registered in advance in the database 14 and enables a black circle to be detected as a pupil within this range. Further, data on the iris pattern 24 of the detected pupil is acquired. Further, the horizontal width of the iris pattern is measured by designating the boundary of the obtained iris pattern 24 in the horizontal direction, and data is obtained in advance. These data are readably stored in the database 14 by the pupil detection processing unit 10.
The pupil rotation angle analysis unit 11 analyzes the pupil rotation angle detected by the pupil detection processing unit 10 based on the image data 17 for each frame. The rotation angle of the pupil is analyzed as an angle of change of the iris pattern 24 for each frame with reference to the zero position of the pupil measured by the calibration and the iris pattern 24 around the pupil. The angle amount is analyzed for each of the horizontal component, the vertical component, and the rotation component, and these data are stored as nystagmus data 20 in the database 14 so as to be readable by the pupil rotation angle analysis unit 11.
Next, the horizontal / vertical / rotational speed analysis unit 12 analyzes the time change of the data relating to the pupil rotation angle acquired by the pupil rotation angle analysis unit 11 as a horizontal speed, a vertical speed, and a rotation speed. Are stored in the database 14 in a readable manner as the nystagmus data 20. Note that the unit time in this time change may be a time between frames, a time between predetermined numbers of frames, or a predetermined time in seconds.
The data processing unit 9 includes nystagmus data 20 acquired by the pupil rotation angle analysis unit 11 and the horizontal / vertical / rotation speed analysis unit 12, that is, data related to the rotation angle of the horizontal component, the vertical component, and the rotation component of the pupil. Is associated with the data on the horizontal speed, vertical speed, and rotation speed with respect to the time change of the image, and the image data 17 of the frame on which the analysis is based or the head position data 19 associated with each frame of the image data 17. As described above, since the image data 17 and the head position data 19 are linked by the data processing unit 9 for each frame of the image data 17, the nystagmus data 20 is linked to one of them, Will also be linked. Note that the linking of the nystagmus data 20 by the data processing unit 9 is also executed in the convex portion of the processing / analysis timing display 65 in FIG.

姿勢解析部13は、頭位センサ7で取得された頭位データ19から、被検者の姿勢を解析するものである。本願における姿勢とは、被検者の頭の向き(頭位)を意味しており、姿勢は頭位角度のα(振角)、β(仰角)、γ(回転角)に対して予めしきい値を定めておき、それぞれの角度としきい値の関係によって判断する。例えば、表1に頭位角度と姿勢(頭位)の判断との対応を示す。
これらのしきい値と対応する姿勢は、頭位データしきい値15として入力部2を介してデータベース14に読み出し可能に格納されており、姿勢解析部13は、例えば、表1に示される頭位データしきい値15を基に被検者の姿勢を解析し、その解析結果として正面、背屈、左下、右下、前屈等の姿勢データ21を生成して読み出し可能にデータベース14に格納する。
The posture analysis unit 13 analyzes the posture of the subject from the head position data 19 acquired by the head position sensor 7. The posture in the present application means the head direction (head position) of the subject, and the posture is determined in advance with respect to the head position angles α (shaking angle), β (elevation angle), and γ (rotation angle). Threshold values are determined, and the determination is made based on the relationship between each angle and the threshold value. For example, Table 1 shows the correspondence between the head position angle and the determination of the posture (head position).
The postures corresponding to these threshold values are stored in the database 14 via the input unit 2 so as to be readable as the head position data threshold value 15. The posture analysis unit 13 outputs, for example, the head position data shown in Table 1. The posture of the subject is analyzed based on the position data threshold value 15, and the posture data 21 such as front, dorsiflexion, lower left, lower right, forward bending, etc. are generated as analysis results and stored in the database 14 in a readable manner. I do.

また、姿勢解析部13は、頭位角度α(振角)、β(仰角)、γ(回転角)として得られる頭位データ19を図4に示されるx軸55、y軸56、w軸57周りに回転させて姿勢(頭位)をアバター化した画像データをも生成し、姿勢データ21として読み出し可能にデータベース14に格納する。
さらに、姿勢解析部13は、予め所望に定められた複数の検査工程の開始と終了に対し、それぞれ姿勢データ21と対応させておくと同時に、それぞれの検査工程で必要とされる画像データ17、頭位データ19あるいは眼振データ20の量を定めておくことで、姿勢データ21とそれに対応して取得された画像データ17及び頭位データ19あるいは解析で得られた眼振データ20の量によって、検査工程の開始と終了を判断する。予め所望に定められた複数の検査工程の開始と終了を決定するための条件に関するデータは、検査工程データ16として予めデータベース14に読み出し可能に格納されている。
検査工程データ16は、検査工程の開始と終了を規定するための姿勢に関する姿勢データ21と、その姿勢でどの程度の画像データ17及び頭位データ19が必要であるか、あるいは眼振データ20が必要であるかを対応させた状態で構成されている。検査工程データ16に含まれるデータとしては、解析される前の画像データ17及び頭位データ19であっても解析後の眼振データ20であってもよい。
なお、解析部8のデータ処理部9、瞳孔検出処理部10、瞳孔回転角解析部11、水平・垂直・回旋速度解析部12及び姿勢解析部13は、その処理あるいは解析に際し、VOGゴーグル4から得られたデータを用いることも可能であるし、一旦データベース14に格納されたデータをデータベース14から読み出して、処理あるいは解析することも可能である。
以上説明した眼振解析システム1は、これらの構成要素を一体にして、耳鼻咽喉科の診察室内に設置したり、あるいは病室に搬入可能な可搬型のシステムとして概念されるものである。図6は、本発明の実施の形態に係る眼振解析システムの構成を表す概念図である。
The posture analyzing unit 13 also converts the head position data 19 obtained as the head position angles α (declination angle), β (elevation angle), and γ (rotation angle) into the x-axis 55, the y-axis 56, and the w-axis shown in FIG. The image data in which the posture (head position) is turned into an avatar by rotating around 57 is also generated, and is stored in the database 14 so as to be readable as the posture data 21.
Further, the posture analysis unit 13 associates the start and the end of a plurality of inspection processes predetermined as desired with the posture data 21, respectively, and at the same time, image data 17 required in each inspection process. By determining the amount of the head position data 19 or the nystagmus data 20, the amount of the posture data 21 and the image data 17 and the head position data 19 corresponding to the posture data 21 or the amount of the nystagmus data 20 obtained by the analysis are determined. The start and end of the inspection process are determined. Data relating to conditions for deciding the start and end of a plurality of inspection processes predetermined as desired are stored in the database 14 in advance as the inspection process data 16 in a readable manner.
The inspection process data 16 includes posture data 21 relating to a posture for defining the start and end of the inspection process and how much image data 17 and head position data 19 are required for the posture, or nystagmus data 20. It is configured in a state where it is determined whether it is necessary. The data included in the examination process data 16 may be the image data 17 and the head position data 19 before the analysis, or the nystagmus data 20 after the analysis.
The data processing unit 9, pupil detection processing unit 10, pupil rotation angle analysis unit 11, horizontal / vertical / rotation speed analysis unit 12, and posture analysis unit 13 of the analysis unit 8 perform processing or analysis from the VOG goggles 4 The obtained data can be used, or the data once stored in the database 14 can be read from the database 14 and processed or analyzed.
The nystagmus analysis system 1 described above is conceptualized as a portable system that can be installed in an otolaryngology consulting room or carried into a hospital room by integrating these components. FIG. 6 is a conceptual diagram illustrating a configuration of the nystagmus analysis system according to the embodiment of the present invention.

図6において、解析部8とデータベース14を備えるパーソナルコンピュータ26に対し、入力部2としてのキーボード2aとマウス2b、出力部3としてのディスプレイ及びVOGゴーグル4を接続する。また、パーソナルコンピュータ26は交流電源28に対して医療用絶縁トランス27を介して接続され、電源が試験や診察の途中で安易に落ちないように信頼性を向上させている。
以上のように構成される本実施の形態に係る眼振解析システム1の動作について図7を参照しながら説明する。図7は本発明の実施の形態に係る眼振解析システムを用いてなされる解析のフローチャートである。
図7において、まず、医師は被検者(患者)に対してVOGゴーグル4を眼を覆うように頭部に装着してもらい、ステップS1として、VOGゴーグル4に内蔵されるカメラ5(図2,3参照)を用いて瞳孔を撮影する。この撮影によって画像データ17が生成される。図7では、工程を表すステップSの表示を破線で覆い、その覆った部分に符号を付しているが、それはその工程を実行する主体を意味しているので、例えば、ステップS1は符号5で示されるカメラによって実行されるものであり、さらにその外側を覆うVOGゴーグル4は、そのカメラ5を内包している構成要素を示している。
ステップS2は、同じく内蔵されたマイク6で医師と被検者の会話を録音したり、医師がメモ代わりに必要な事項を、マイク6を用いて音声メモとして録音する。この録音によって音声データ18が生成される。さらに、ステップS3として、VOGゴーグル4に内蔵された頭位センサ7(図2,3参照)を用いて被検者の頭位を測定して頭位データ19を生成する。
In FIG. 6, a keyboard 2a and a mouse 2b as an input unit 2, a display and a VOG goggle 4 as an output unit 3 are connected to a personal computer 26 having an analysis unit 8 and a database 14. Further, the personal computer 26 is connected to an AC power supply 28 via a medical insulating transformer 27 to improve the reliability so that the power supply does not easily fall off during a test or medical examination.
The operation of the nystagmus analysis system 1 according to the present embodiment configured as described above will be described with reference to FIG. FIG. 7 is a flowchart of an analysis performed using the nystagmus analysis system according to the embodiment of the present invention.
In FIG. 7, the doctor first has the subject (patient) wear the VOG goggles 4 on his / her head so as to cover his eyes, and as a step S1, a camera 5 built in the VOG goggles 4 (FIG. 2). , 3)). The image data 17 is generated by this photographing. In FIG. 7, the display of the step S representing the process is covered by a broken line, and the covered portion is denoted by the reference numeral. However, since it means the entity that executes the process, for example, the step S1 is denoted by the reference numeral 5. , And the VOG goggles 4 that cover the outside thereof indicate components that include the camera 5.
In step S2, the conversation between the doctor and the subject is recorded with the built-in microphone 6, and the doctor records the necessary information in place of the memo as a voice memo using the microphone 6. The audio data 18 is generated by this recording. Further, as step S3, the head position of the subject is measured using the head position sensor 7 (see FIGS. 2 and 3) built in the VOG goggles 4, and head position data 19 is generated.

ステップS4は、データ処理部9が画像データ17を構成する個々のフレームを取得する工程である。また、ステップS5は、データ処理部9がステップS4で取得されたフレーム毎にコールバック関数が呼び出される工程である。本実施の形態においてはコールバック関数を呼び出しているが、コールバック関数の他、その後のステップS6のデータ処理部9が頭位データ19を取得する工程を実行するためのトリガー信号となるのであれば、どのような信号や情報を生成してもよい。
ステップS7は、データ処理部9が、図5を参照して説明したとおりのタイミングでフレーム毎の画像データ17と頭位データ19との紐付け処理を実行する工程である。データ処理部9は、画像データ17と頭位データ19が紐付けされた状態でデータベース14に読み出し可能に格納する。
Step S <b> 4 is a step in which the data processing unit 9 acquires individual frames constituting the image data 17. Step S5 is a step in which the data processing unit 9 calls a callback function for each frame acquired in step S4. In the present embodiment, the callback function is called, but in addition to the callback function, it may be a trigger signal for executing the step of acquiring the head position data 19 by the data processing unit 9 in the subsequent step S6. Any signal or information may be generated.
Step S7 is a step in which the data processing unit 9 executes a linking process between the image data 17 and the head position data 19 for each frame at the timing described with reference to FIG. The data processing unit 9 readablely stores the image data 17 and the head position data 19 in the database 14 in a linked state.

ステップS8は、瞳孔検出処理部10が、データベース14に格納されている瞳孔探索範囲22及び探索パラメータ23を読み出して、フレーム毎の画像データ17から瞳孔を検出する工程である。
ステップS9は、瞳孔回転角解析部11が、瞳孔検出処理部10を用いてフレーム毎の画像データ17で検出した瞳孔の回転角を解析する工程である。回転角は前述のとおり、キャリブレーションを基に、水平成分、垂直成分、回旋成分毎に角度量として解析され、それらのデータは眼振データ20として瞳孔回転角解析部11によって読み出し可能にデータベース14に格納される。
ステップS10は、水平・垂直・回旋速度解析部12が、瞳孔回転角解析部11で取得された瞳孔の回転角に関するデータの時間変化を、水平速度、垂直速度、回旋速度として解析する工程である。これらのデータもそれぞれ眼振データ20として読み出し可能にデータベース14に格納される。
ステップS11は、データ処理部9が、瞳孔回転角解析部11及び水平・垂直・回旋速度解析部12で取得される眼振データ20とそれらの解析の基となったフレームの画像データ17又は画像データ17のフレーム毎に紐付けられた頭位データ19と紐付けを行う工程である。
Step S8 is a step in which pupil detection processing section 10 reads pupil search range 22 and search parameter 23 stored in database 14 and detects a pupil from image data 17 for each frame.
Step S <b> 9 is a step in which the pupil rotation angle analysis unit 11 uses the pupil detection processing unit 10 to analyze the pupil rotation angle detected from the image data 17 for each frame. As described above, the rotation angle is analyzed as an angle amount for each of the horizontal component, the vertical component, and the rotation component based on the calibration, and these data are read as the nystagmus data 20 by the pupil rotation angle analysis unit 11. Is stored in
Step S10 is a step in which the horizontal / vertical / rotational speed analyzing unit 12 analyzes a temporal change of data relating to the pupil rotation angle acquired by the pupil rotation angle analyzing unit 11 as a horizontal speed, a vertical speed, and a rotational speed. . These data are also stored in the database 14 in a readable manner as the nystagmus data 20.
In step S11, the data processing unit 9 sets the nystagmus data 20 acquired by the pupil rotation angle analysis unit 11 and the horizontal / vertical / rotation speed analysis unit 12 and the image data 17 or image of the frame on which the analysis is based. This is a step of associating with the head position data 19 associated with each frame of the data 17.

ステップS12は、姿勢解析部13が、頭位センサ7で取得された頭位データ19から、被検者の姿勢を解析する工程である。解析の方法については既に述べたとおりであり、姿勢解析部13は、解析結果としての正面、背屈、左下、右下、前屈等の姿勢データ21を生成し、読み出し可能にデータベース14に格納する。
姿勢データ21の用い方については後述する。
ステップS13は、解析部8で取得されたり、処理されたり、解析されたデータを、出力部3が必要に応じて出力する工程である。医師は、出力されたデータを見ながら検査を実施したり、診察を行ったり、被検者に見せて症状を説明する。
これらのステップのうち、ステップS1からステップS7まではVOGゴーグル4による測定時に一連の工程として実行され、一旦その後に画像データ17や頭位データ19としてデータベース14に格納し、後日、画像データ17及び頭位データ19を再生し、解析部8を使用してステップS8以降を実行してもよいし、ステップS1からステップS7に続けてステップS8以降を実行してもよい。
また、ステップS12はステップS11の次に記載されているが、姿勢解析部13における解析は頭位データ19が取得されると可能であるので、必ずしもこの図7で記載されている工程の順序で実行されるとも限らない。他の工程も必要とされるデータがその前段で入手されている限り実行可能であり、逆にすぐ実行されるとも限らず、データが入手された状態以降のいずれでも実行可能であるので、必ずしも図7に示される工程とおりであるとは限らない。
Step S12 is a process in which the posture analysis unit 13 analyzes the posture of the subject from the head position data 19 acquired by the head position sensor 7. The method of analysis is as described above. The posture analysis unit 13 generates posture data 21 such as front, dorsiflexion, lower left, lower right, and forward bending as analysis results, and stores the data in the database 14 in a readable manner. I do.
How to use the posture data 21 will be described later.
Step S13 is a step in which the output unit 3 outputs data acquired, processed, or analyzed by the analysis unit 8 as necessary. The doctor performs an examination while looking at the output data, performs a medical examination, and shows the subject to explain the symptoms.
Of these steps, steps S1 to S7 are executed as a series of steps during measurement by the VOG goggles 4, and once stored in the database 14 as image data 17 and head position data 19, and later, the image data 17 and The head position data 19 may be reproduced and the analysis unit 8 may be used to execute step S8 and subsequent steps, or may execute step S8 and subsequent steps after step S1 to step S7.
Step S12 is described after step S11. However, since the analysis by the posture analysis unit 13 is possible when the head position data 19 is acquired, the analysis is not necessarily performed in the order of the steps described in FIG. Not necessarily executed. Other steps can be executed as long as the required data is obtained in the previous stage, and conversely, it is not necessarily executed immediately, and can be executed after the data is obtained. The steps are not always as shown in FIG.

次に、図7を用いて説明した実施の形態に係る眼振解析システム1における一連の動作によって出力される出力部3としてのディスプレイの画面の表示について、図8及び図9を参照しながら説明する。
図8は、本発明の実施の形態に係る眼振解析システムのディスプレイに示される眼振検査時表示画面40の概念図であり、図9は、本発明の実施の形態に係る眼振解析システムのディスプレイに示される眼振検査時画像の概念図である。
図8に示されるのは、眼振検査の種類とその眼振検査時にディスプレイに表示されるアイコンである。例えば、符号42で示されるのは、頭位眼振検査(坐位)用表示であり、下方に示される頭位眼振検査(座位)選択アイコン46aは、このバナーをクリックすると(選択すると)、ディスプレイ上に示される操作画面上に頭位眼振検査(座位)用アイコン46bが表示される。具体的には、図11の操作画面70cの眼振検査時画像50cの下方に頭位眼振検査(座位)用アイコン46bとして表示されている。
頭位眼振検査(座位)用アイコン46bは、頭位眼振検査を開始する際あるいは検査中に、被検者の姿勢がいずれに該当しているかを前述の姿勢データ21を基に姿勢解析部13が判断して、この頭位眼振検査(座位)用アイコン46bのいずれか該当する姿勢を点灯や点滅、あるいは色彩を用いて他の姿勢ではないことを示して医師が認識できるようにするものである。
符号41で表されるのは注視眼振検査用表示41であり、注視眼振検査選択アイコン45aと注視眼振検査用アイコン45bも同様に、それぞれ選択のためのバナーと姿勢を示すためのアイコンである。さらに、頭位眼振検査(臥位)用表示43における頭位眼振検査(臥位)選択アイコン47aと頭位眼振検査(臥位)用アイコン47b、頭振り眼振検査用表示44における頭振り眼振検査選択アイコン48aと頭振り眼振検査用アイコン48bも同様である。
Next, the display of the screen of the display as the output unit 3 output by a series of operations in the nystagmus analysis system 1 according to the embodiment described with reference to FIG. 7 will be described with reference to FIGS. 8 and 9. I do.
FIG. 8 is a conceptual diagram of a nystagmus inspection display screen 40 shown on the display of the nystagmus analysis system according to the embodiment of the present invention, and FIG. 9 is a nystagmus analysis system according to the embodiment of the present invention. It is a conceptual diagram of the image at the time of a nystagmus test shown on the display of FIG.
FIG. 8 shows types of the nystagmus test and icons displayed on the display during the nystagmus test. For example, what is indicated by reference numeral 42 is a display for a head nystagmus test (seated position), and a head nystagmus test (seated position) selection icon 46a shown below is clicked (selected) when this banner is clicked. An icon 46b for head nystagmus test (seated position) is displayed on the operation screen shown on the display. Specifically, it is displayed as a head position nystagmus test (sitting position) icon 46b below the nystagmus test image 50c on the operation screen 70c in FIG.
The head posture nystagmus test (seated position) icon 46b is used to analyze the posture of the subject when starting or during the head nystagmus test based on the posture data 21 described above. The unit 13 makes a judgment, and turns on or blinks any one of the postures for the head position nystagmus test (sitting position) 46b, or uses a color to indicate that the posture is not the other posture so that the doctor can recognize the posture. Is what you do.
Reference numeral 41 denotes a gaze nystagmus inspection display 41, and a gaze nystagmus inspection selection icon 45a and a gaze nystagmus inspection icon 45b are also icons for indicating a banner and a posture for selection, respectively. It is. Furthermore, a head position nystagmus test (lying position) selection icon 47a in the head position nystagmus inspection (lying position) selection icon 47b, a head position nystagmus inspection (lying position) icon 47b, and a head position nystagmus inspection display 44. The same applies to the head nystagmus test selection icon 48a and the head nystagmus test icon 48b.

次に、図9を参照しながら、眼振解析システムを用いた眼振検査時の画像表示について説明する。図9において、眼振検査時画像50には、大きく検査によって撮影された画像データ17が表示されており、その上方の周囲に頭位角度表示アイコン51、座位正面位置セットアイコン52、キャリブレーションアイコン58及び解析結果表示アイコン59のアイコンが表示されている。また、画面の左上にはアバター表示54が配置されており、右上には頭位角度表示53が配置されている。
検査開始時に、座位正面位置セットアイコン52をクリック(選択)すると、被検者の座位時の正面位置が頭位角度の基準として、頭位センサ7がリセットされる。すなわち、被検者が座位で正面を向いた状態でリセットすることで、図4(a)−(c)に示されるとおり、α(振角)、β(仰角)、γ(回転角)のいずれもが「正面」となり、それぞれが0°となるのである。検査毎にこの状態で基準を決定しておくことで、その後に被検者の頭位が変化した場合に、α(振角)、β(仰角)、γ(回転角)毎に頭位角として算出できる。
頭位角度表示アイコン51は、クリック(選択)すると、頭位角度表示53の表示/非表示の切替えを行うことができるが、現在示されている頭位角度表示53によれば、検査開始時の頭位角度の基準をリセットした際であることから、α,β,γのいずれも0°であることが示されており、姿勢解析部13も正面として解析するので、図9中のアバター表示54は正面を向いている。
キャリブレーションアイコン58は、すでに説明したキャリブレーションを実行するためのダイアログをディスプレイに表示するためのアイコンであり、解析結果表示アイコン59は、眼振解析の結果を表示/非表示の切替えのためのアイコンである。
Next, an image display at the time of a nystagmus test using the nystagmus analysis system will be described with reference to FIG. In FIG. 9, image data 17 photographed by a large examination is displayed in an nystagmus inspection image 50. A head position display icon 51, a sitting front position set icon 52, a calibration icon The icon 58 and the analysis result display icon 59 are displayed. An avatar display 54 is arranged at the upper left of the screen, and a head position display 53 is arranged at the upper right.
When the sitting front position setting icon 52 is clicked (selected) at the start of the examination, the head position sensor 7 is reset using the front position of the subject in the sitting position as a reference of the head position angle. That is, by resetting the subject in a sitting position and facing the front, as shown in FIGS. 4A to 4C, α (shake angle), β (elevation angle), and γ (rotation angle) Both are "front", and each becomes 0 degree. By determining the reference in this state for each test, if the subject's head position changes thereafter, the head position angle is set for each of α (shaking angle), β (elevation angle), and γ (rotation angle). Can be calculated as
By clicking (selecting) the head position angle display icon 51, display / non-display of the head position angle display 53 can be switched. Since the reference of the head position angle is reset, it is shown that all of α, β, and γ are 0 °, and the posture analysis unit 13 also analyzes as the front, so the avatar in FIG. The display 54 is facing the front.
The calibration icon 58 is an icon for displaying a dialog for executing the previously described calibration on the display, and the analysis result display icon 59 is for switching display / non-display of the result of the nystagmus analysis. Icon.

ここで、図10−図17を参照しながら、本実施の形態に係る眼振解析システムの操作と検査中の表示及び解析結果等の表示について説明する。図10−図17は本発明の実施の形態に係る眼振解析システムのディスプレイに示される操作画面の概念図である。
図10は、検査開始時の操作画面の概念図である。図10において、検査開始時であるので、被検者に正面を向いてもらい、座位正面位置セットアイコン52をクリック(選択)して頭位センサ7をリセットしている。したがって、操作画面70aの眼振検査時画像50aにおける頭位角度表示53aは、α(振角)、β(仰角)、γ(回転角)のいずれもが0°となっており、被検者のアバター表示54aも正面を向いている。また、操作画面70aの左下には図8を参照しながら説明した注視眼振検査、頭位眼振検査(座位)、頭位眼振検査(臥位)等の操作アイコン71が配置されている。
操作画面70aの右側には眼球角度解析結果72と眼球速度解析結果73が表示されているが、本操作画面70aは、これから検査を開始するための画面であるので、この眼球角度解析結果72と眼球速度解析結果73は操作画面70aの左側に日付のデータで代表して10個配置されている検査結果のうちいずれかの検査データをその前に表示していて、そのまま次の検査に移行しようとしているものである。
なお、眼球角度解析結果72は、眼振解析システム1の解析部8に含まれる瞳孔回転角解析部11によって解析された結果であり、眼振データ20としてデータベース14に格納されているものを出力部3によって出力された結果として操作画面70aに表示されている。眼球角度解析結果72は、すでに説明したとおり、水平、垂直、回旋の3成分として解析されて表示されている。
一方、眼球速度解析結果73は眼振解析システム1の解析部8に含まれる水平・垂直・回旋速度解析部12によって解析された結果であり、これも眼振データ20としてデータベース14に格納されているものを出力部3によって操作画面70aに表示されている。眼球速度解析結果73も水平、垂直、回旋の3成分として解析され、表示される。
次に、4行2列に配列している操作アイコン71のうち、右上の「頭位・座位」をクリック(選択)して、頭位眼振検査(座位)を実施する場合について図11を参照しながら説明する。
Here, the operation of the nystagmus analysis system according to the present embodiment, the display during the examination, and the display of the analysis result and the like will be described with reference to FIGS. 10 to 17 are conceptual diagrams of operation screens displayed on the display of the nystagmus analysis system according to the embodiment of the present invention.
FIG. 10 is a conceptual diagram of an operation screen at the start of an examination. In FIG. 10, since the examination is started, the subject is asked to face the front, and the sitting position front position set icon 52 is clicked (selected) to reset the head position sensor 7. Therefore, in the head position angle display 53a in the nystagmus inspection image 50a on the operation screen 70a, all of α (declination angle), β (elevation angle), and γ (rotation angle) are 0 °, and the subject Avatar display 54a also faces forward. Further, at the lower left of the operation screen 70a, operation icons 71 for the gazing nystagmus test, the head nystagmus test (seated position), the head nystagmus test (lying position) described with reference to FIG. 8 are arranged. .
An eyeball angle analysis result 72 and an eyeball speed analysis result 73 are displayed on the right side of the operation screen 70a. Since the operation screen 70a is a screen for starting an examination from now on, the eyeball angle analysis result 72 and the eyeball angle analysis result 72 are displayed. The eyeball velocity analysis result 73 is displayed before any of the ten examination results, which are typically represented by date data, on the left side of the operation screen 70a, and the processing proceeds to the next examination as it is. It is what it is.
Note that the eyeball angle analysis result 72 is a result analyzed by the pupil rotation angle analysis unit 11 included in the analysis unit 8 of the nystagmus analysis system 1, and outputs a result stored in the database 14 as nystagmus data 20. The result output by the unit 3 is displayed on the operation screen 70a. As described above, the eyeball angle analysis result 72 is analyzed and displayed as three components of horizontal, vertical, and rotation.
On the other hand, the eyeball speed analysis result 73 is a result analyzed by the horizontal / vertical / rotational speed analysis unit 12 included in the analysis unit 8 of the nystagmus analysis system 1, and is also stored in the database 14 as the nystagmus data 20. Are displayed on the operation screen 70a by the output unit 3. The eyeball velocity analysis result 73 is also analyzed and displayed as three components of horizontal, vertical and rotation.
Next, FIG. 11 shows a case in which a head position nystagmus test (seated position) is performed by clicking (selecting) “top position / sitting position” in the upper right of the operation icons 71 arranged in 4 rows and 2 columns. It will be described with reference to FIG.

図11は図10で「頭位・座位」の操作アイコン71をクリックして開かれる操作画面70bである。図11に示される状態では、頭位眼振検査(座位)を実施するための頭位眼振検査(座位)用アイコン46bが表示されている。
眼振検査時画像50bでは、その上部に頭位角度表示53bが配置され、それぞれの頭位角度が、画像は不鮮明であるがα=−1,β=0,γ=−3と示されており、先の頭位データしきい値15としての表1を参照すれば、姿勢解析部13は「正面」と判断するので、この「正面」を姿勢データ21としてデータベース14に格納しながら、出力部3であるディスプレイには、頭位眼振検査(座位)用アイコン46b上で「座位正面」が色濃く表示されている。
また、姿勢解析部13は、姿勢(頭位)をアバター化した画像データに関する姿勢データ21をデータベース14から読み出してアバター表示54bとして眼振検査時画像50b内の左上部に示している。
眼振検査時画像50bでは瞳周辺の画像を大きく表示するため、検査時以外で後で検査時のデータを再生したり、過去の検査データを解析するような場合には頭位データ19がわかり難いが、頭位角度表示53bとして頭位角度を成分毎に数値として表示することによれば容易に正確な数値を把握できる。さらに、アバター表示54bを眼振検査時画像50b内に配置することでより直感的に把握することができ医師の診察や判断、評価をより迅速に容易にすることができる。
図11に示される状態は、録画アイコンをクリック(選択)して瞳孔の録画を開始したところである。したがって、録画停止アイコン66が表示され、録画アイコンが消灯して表示されていないが、眼振解析システム1では録画停止アイコン66の上部に配置されている。
録画アイコンをクリックすると録画が開始され、録画停止アイコン66をクリックするまで録画は継続される。このとき医師や被検者の音声も録音されており、頭位測定も同時に実行されている。すなわち、この状態が図7のステップS1−S3で示される状態である。
FIG. 11 shows an operation screen 70b opened by clicking the operation icon 71 of "head position / sitting position" in FIG. In the state shown in FIG. 11, an icon 46b for a head nystagmus test (seated position) for performing a head nystagmus test (seated position) is displayed.
In the nystagmus inspection image 50b, a head position angle display 53b is arranged at the upper part, and the respective head position angles are indicated as α = -1, β = 0, and γ = -3 although the image is unclear. When the posture analysis unit 13 refers to Table 1 as the head position data threshold 15, the posture analysis unit 13 determines that the front is “front”. On the display that is the part 3, the “front of sitting position” is displayed in a dark color on the icon for head nystagmus test (seated position) 46b.
In addition, the posture analysis unit 13 reads the posture data 21 relating to the image data in which the posture (head position) is avatared from the database 14 and displays the posture data 21 as an avatar display 54b in the upper left portion of the nystagmus inspection image 50b.
In the nystagmus inspection image 50b, since the image around the pupil is displayed in a large size, the head position data 19 can be obtained in a case where the data during the inspection is reproduced later except during the inspection or when the past inspection data is analyzed. Although it is difficult, by displaying the head position angle as a numerical value for each component as the head position angle display 53b, an accurate numerical value can be easily grasped. Further, by arranging the avatar display 54b in the nystagmus test image 50b, it is possible to more intuitively grasp, and it is possible to more quickly and easily examine, judge, and evaluate the doctor.
The state shown in FIG. 11 is a state where the recording of the pupil is started by clicking (selecting) the recording icon. Therefore, the recording stop icon 66 is displayed and the recording icon is turned off and is not displayed. However, in the nystagmus analysis system 1, it is arranged above the recording stop icon 66.
When the recording icon is clicked, the recording is started, and the recording is continued until the recording stop icon 66 is clicked. At this time, the voices of the doctor and the subject are also recorded, and the head position measurement is performed at the same time. That is, this state is the state shown in steps S1-S3 in FIG.

図12は図11に続いて背屈の姿勢で瞳孔を録画している状態の眼振検査時画像50cが示されており、頭位角度表示53cやアバター表示54cも背屈であることを示している。
頭位眼振検査(座位)検査では、頭位眼振検査(座位)用アイコン46bが示すとおり、検査工程として、その姿勢によって5つの工程が含まれている。頭位角度表示53cの頭位角度から表1を参照すれば「背屈」の姿勢であることが理解できるが、図11の「座位正面」から「背屈」へ検査工程が移行していることになる。この移行は、既に説明したとおり、「座位正面」で取得された画像データ17あるいは頭位データ19が予め定められた量を超えることで、姿勢解析部13が自動的に「背屈」へ移行させたものである。その際、既に終了した検査工程「座位正面」については、図11よりも濃いあるいは異なる色で頭位眼振検査(座位)用アイコン46bを表示することで終了した検査工程であることが示されており、また、現在録画している対象の検査工程である「背屈」が、図11の「座位・正面」と同じ色で表示されており、検査工程が終了しているか継続中かの区別が容易に理解できる。このように姿勢解析部13が自動で検査工程を移行させるので、医師が検査工程の移行を判断する必要がなく、検査漏れも生じないので被検者の負担も少なく、確実で効率的な眼振検査を実施することが可能である。
なお、本実施の形態に係る眼振解析システム1では、姿勢解析部13による検査工程の移行として画像データ17や頭位データ19の取得量で判断したが、解析部8によって解析を実施して眼振データ20を予め定めた量取得したことで検査工程の移行を判断するようにしてもよい。
FIG. 12 shows a nystagmus test image 50c in a state in which the pupil is recorded in a posture of dorsiflexion following FIG. 11, indicating that the head position angle display 53c and the avatar display 54c are also dorsiflexion. ing.
In the head posture nystagmus test (seated position) test, as indicated by the head posture nystagmus test (seated position) icon 46b, five inspection processes are included depending on the posture. Referring to Table 1 from the head position angle of the head position display 53c, it can be understood that the posture is “dorsiflexion”, but the inspection process has shifted from “seat position front” to “dorsiflexion” in FIG. Will be. As described above, the posture analysis unit 13 automatically shifts to “dorsiflexion” when the image data 17 or the head position data 19 acquired in the “sitting front” exceeds a predetermined amount, as described above. It was made. At this time, the already completed inspection process "sitting front" is displayed by displaying the head posture nystagmus inspection (sitting) icon 46b in a darker or different color than in FIG. 11, indicating that the inspection process is completed. In addition, the “dorsiflexion”, which is the inspection process of the object currently being recorded, is displayed in the same color as the “seated position / front” in FIG. 11 to determine whether the inspection process is completed or ongoing. The distinction is easy to understand. As described above, since the posture analyzing unit 13 automatically shifts the inspection process, there is no need for the doctor to judge the shift of the inspection process, and there is no omission of the inspection. A shake test can be performed.
In the nystagmus analysis system 1 according to the present embodiment, the transition of the inspection process by the posture analysis unit 13 is determined based on the acquisition amounts of the image data 17 and the head position data 19, but the analysis is performed by the analysis unit 8. The transition of the inspection process may be determined by acquiring a predetermined amount of the nystagmus data 20.

図13は、図12で行った頭位眼振検査(座位)の「背屈」の検査工程が終了し、「左下」の検査工程を実施している状態の操作画面70dである。眼振検査時画像50dには、頭位角度表示53d及びアバター表示54dも配置されており、頭位眼振検査(座位)用アイコン46bでは、現在録画している対象の検査工程である「左下」が、図11の「座位・正面」と同じ色で表示されている。また、既に終了している「座位正面」、「背屈」は図12の「座位正面」と同じ色で表示されている。   FIG. 13 shows the operation screen 70d in a state where the “dorsiflexion” inspection process of the head posture nystagmus test (seated position) performed in FIG. 12 is completed and the “lower left” inspection process is being performed. The head position angle display 53d and the avatar display 54d are also arranged in the nystagmus inspection image 50d, and the head position nystagmus inspection (seated position) icon 46b indicates the “lower left "Are displayed in the same color as the" sitting position / front "in FIG. In addition, the “sit front” and “dorsiflexion” which have already been completed are displayed in the same color as the “seat front” in FIG.

図14は、図13で行った頭位眼振検査(座位)の「左下」の検査工程が終了し、「右下」の検査工程を実施している状態の操作画面70eである。眼振検査時画像50eは、頭位角度表示53e及びアバター表示54eも配置されており、頭位眼振検査(座位)用アイコン46bでは、現在録画している対象の検査工程である「右下」が、図11の「座位・正面」と同じ色で表示され、既に終了している「座位正面」、「背屈」、「左下」は図12の「座位正面」と同じ色で表示されている。   FIG. 14 is an operation screen 70e in a state where the “lower left” inspection process of the head posture nystagmus test (seated position) performed in FIG. 13 is completed and the “lower right” inspection process is being performed. In the nystagmus inspection image 50e, a head position angle display 53e and an avatar display 54e are also arranged, and the head position nystagmus inspection (seated position) icon 46b indicates the inspection process of the target that is currently being recorded in the lower right corner. Are displayed in the same color as the "sitting front" in FIG. 11, and the already completed "sitting front", "dorsiflexion", and "lower left" are displayed in the same color as the "sitting front" in FIG. ing.

図15は、図14で行った頭位眼振検査(座位)の「右下」の検査工程が終了し、「前屈」の検査工程を実施している状態の操作画面70fである。眼振検査時画像50fは、頭位角度表示53f及びアバター表示54fも配置されており、頭位眼振検査(座位)用アイコン46bでは、現在録画している対象の検査工程である「前屈」が、図11の「座位・正面」と同じ色で表示され、既に終了している「座位正面」、「背屈」、「左下」、「右下」は図12の「座位正面」と同じ色で表示されている。   FIG. 15 is an operation screen 70f in a state where the “lower right” inspection process of the head posture nystagmus test (sitting position) performed in FIG. 14 has been completed and the “forward bending” inspection process is being performed. In the nystagmus inspection image 50f, a head position angle display 53f and an avatar display 54f are also arranged, and the head position nystagmus inspection (seated position) icon 46b indicates the “forward bending” which is the inspection process of the object currently being recorded. Are displayed in the same color as the “sitting position / front” in FIG. 11, and the already completed “sitting position front”, “dorsiflexion”, “lower left”, and “lower right” are the same as the “sitting position front” in FIG. They are displayed in the same color.

次に、頭位眼振検査(座位)のすべての検査工程が終了し、診断を行うために表示される操作画面が必要となるが、それが図16に示される操作画面70gである。この操作画面70gでは、操作アイコン71が消えて、代わりに検査データに関する操作アイコン71aが左側に配置されている。図16では、頭位眼振検査(座位)のうち、「座位正面」の検査工程における検査データが選択されていることが、眼振検査時画像50gの頭位角度表示53g及びアバター表示54gから知ることができる。また、その際の画像が眼振検査時画像50gであり、眼振検査時画像50gの下方には、画像データ17を確認するために、再生、巻き戻し、早送り、停止などのアイコンが配列されている。さらに、画像データ17を再生しながら、その際の解析部8の瞳孔回転角解析部11や水平・垂直・回旋速度解析部12による解析結果が眼球角度解析結果72a及び眼球速度解析結果73aに示される。
この際、VOGゴーグル4で測定された画像データ17と頭位データ19が紐付けされ、さらに、眼振データ20とも紐付けされているため、画像データ17の中のいずれのデジタルな(離散化した)データを選択しても、それに頭位データ19が紐付けされており、眼振データ20に対しても頭位データ19が紐付けされていることから、眼振データ20の中のいずれのデジタルなデータを選択してもその際の頭位データ19を得ることが可能である。
Next, all the inspection processes of the head nystagmus test (seated position) are completed, and an operation screen displayed for performing diagnosis is required. This is the operation screen 70g shown in FIG. In the operation screen 70g, the operation icon 71 disappears, and instead, the operation icon 71a relating to the inspection data is arranged on the left side. In FIG. 16, the fact that the inspection data in the inspection process of “seated front” is selected from the head posture nystagmus test (seated position) is based on the head position angle display 53 g and the avatar display 54 g of the nystagmus inspection image 50 g. You can know. The image at that time is the nystagmus inspection image 50g, and icons such as playback, rewind, fast forward, and stop are arranged below the nystagmus inspection image 50g to confirm the image data 17. ing. Further, while reproducing the image data 17, the analysis results by the pupil rotation angle analysis unit 11 and the horizontal / vertical / rotation speed analysis unit 12 of the analysis unit 8 at that time are shown in the eyeball angle analysis result 72a and the eyeball speed analysis result 73a. It is.
At this time, since the image data 17 measured by the VOG goggles 4 and the head position data 19 are linked, and further linked to the nystagmus data 20, any digital (discretized) Is selected, the head position data 19 is linked to the selected data, and the head position data 19 is also linked to the nystagmus data 20. Even if the digital data is selected, the head position data 19 at that time can be obtained.

画像データ17と頭位データ19の紐付け及び眼振データ20と画像データ17又は頭位データ19との紐付け処理は、結局、画像データ17と頭位データ19と眼振データ20を紐付けることになるが、ここで、この紐付け処理と従来技術である、単に画像データ17と頭位データ19を同時に測定して同一の記録媒体に記録する場合の相違について説明する。
紐付け処理を行うことで、画像データ17のフレーム毎のデジタルデータに対して頭位データ19が相互に関連するペアデータとして認識され、いずれか一方を抽出すると他方のデータも抽出されることになり、一体不可分に抽出することが可能である。そして、このいずれかと眼振データ20に対して同様に紐付け処理を行うことで、さらに画像データ17のフレーム毎に対して眼振データ20が相互に関連するペアデータとして認識され、いずれか一方を抽出すると一体不可分に他方も抽出することが可能である。
これに対して単に同時に測定して同一の媒体に記録する場合には、その媒体から一方のデータのみを抽出することが可能であり、互いに関連していないデータであることから、一方をデータ削除することも可能であり、一体不可分のデータとして記録されるものではない。
The linking process between the image data 17 and the head position data 19 and the linking process between the nystagmus data 20 and the image data 17 or the head position data 19 eventually link the image data 17 with the head position data 19 and the nystagmus data 20. Here, the difference between the linking process and the related art, that is, the case where the image data 17 and the head position data 19 are simply measured simultaneously and recorded on the same recording medium will be described.
By performing the linking process, the head position data 19 is recognized as the pair data that is related to each other with respect to the digital data of each frame of the image data 17, and when one of them is extracted, the other data is also extracted. That is, it is possible to extract inseparably. Then, by performing a linking process in the same manner to any one of the nystagmus data 20, the nystagmus data 20 is further recognized as paired data related to each frame of the image data 17. Is extracted, it is possible to extract the other inseparably.
On the other hand, when simply measuring at the same time and recording on the same medium, it is possible to extract only one data from the medium and delete one data because it is not related to each other. It is also possible to record the data as integral data.

したがって、従来技術に比較して、画像データ17を診察する場合に、画像データ17で生じている被検者の症状がどのような頭位データ19で生じているか、あるいは解析によって得られる眼振データ20が発生している際の頭位データ19も精度よく突合させることが可能であり、診断の精度も向上させることができる。また、これまで診断時には、医師によって頭位が確認されて、その頭位を記録しつつ、その頭位における症状を記録しなければならなかったが、本実施の形態に係る眼振解析システム1では、頭位は、VOGゴーグル4の頭位センサ7で自動で頭位が測定され頭位データ19としてデータベース14に保存され、しかも画像データ17や眼振データ20と紐付けされるので、診断時に自動で頭位に関するデータを取得でき、ディスプレイに表示することも可能であるし、再生時にも同様に表示やデータとしても使用することが可能である。
これによって眼振検査を実施する医師の精神的・肉体的負担は大幅に減少し、その結果検査や診断が短時間でかつ高精度で可能となり、被検者に対する負担も大幅に軽減される。
さらに、画像データ17、頭位データ19及び眼振データ20が紐付けられているので、解析された眼振データ20において、ある時点における1点の眼振データの基となった画像データ17と頭位データ19そのものを確認することができ、それらの対応を確認することができ、しかも、測定した後に画像データ17と頭位データ19を紐付けしてデータを格納するので、画像データ17を再生する際にも頭位データ19が紐付けされており、その状態で眼振を解析して得られる眼振データ20との紐付けも維持されるので、検査後にデータの再生を行い、解析を行っても同様に画像データ17の1フレーム単位あるいは複数のフレーム単位での頭位データ19や眼振データ20との同期は保持されるので、より精度が高く信頼性の高い解析と同期性・再現性が担保されることから検査のやり直しや検査時の調整、医師の関与が不要であり極めて効率性の高い検査が可能である。
なお、眼振解析システム1では画像データ17と頭位データ19及び眼振データ20がそれぞれ紐付け処理されるので、これらのデータのうち、1つのみを出力部3に表示するのは意味がなく、紐付け処理されたこれら3つのデータのうち、少なくとも2つを同時に表示することに意義がある。
Therefore, when examining the image data 17 as compared with the related art, what kind of head position data 19 causes the subject's symptoms occurring in the image data 17 or nystagmus obtained by analysis The head position data 19 when the data 20 is generated can be matched with high accuracy, and the accuracy of diagnosis can be improved. Up to now, at the time of diagnosis, the head position has been confirmed by the doctor, and while recording the head position, the symptoms at the head position have to be recorded, but the nystagmus analysis system 1 according to the present embodiment In the head position, the head position is automatically measured by the head position sensor 7 of the VOG goggles 4 and stored in the database 14 as head position data 19, and is linked to the image data 17 and the nystagmus data 20. Sometimes, data on the head position can be automatically acquired and displayed on a display, and can also be used as display or data during reproduction.
As a result, the mental and physical burden on the physician performing the nystagmus test is greatly reduced, and as a result, the test and diagnosis can be performed in a short time and with high accuracy, and the burden on the subject is also greatly reduced.
Further, since the image data 17, the head position data 19, and the nystagmus data 20 are associated with each other, the analyzed nystagmus data 20 includes the image data 17 that is the basis of one point of the nystagmus data at a certain time. The head position data 19 itself can be confirmed and their correspondence can be confirmed. Moreover, after the measurement, the image data 17 and the head position data 19 are linked and stored. At the time of reproduction, the head position data 19 is linked, and in this state, the link with the nystagmus data 20 obtained by analyzing the nystagmus is also maintained. Similarly, since the synchronization with the head position data 19 and the nystagmus data 20 in one frame unit or a plurality of frame units of the image data 17 is maintained, a more accurate and reliable solution When synchronization and reproducibility is adjusted during a test of rework and inspection from being secured, it is unnecessary to involve a physician are possible very efficient check.
In the nystagmus analysis system 1, the image data 17, the head position data 19, and the nystagmus data 20 are associated with each other, and it is meaningful to display only one of these data on the output unit 3. Instead, it is significant to simultaneously display at least two of the three pieces of data that have been linked.

最後に、図17は、操作アイコン71bの中で「頭振り」をクリックして開かれる操作画面70hである。操作アイコン71bで「頭振り」の箇所が色濃く示されており、選択されていることがわかる。
図17に示される状態では、頭振り眼振検査を実施するために、「右」と「左」で構成される頭振り眼振検査用アイコン48bが表示されている。その状態において、図11−図16で説明した頭位眼振検査(座位)の場合と同様に、眼振検査時画像50hが表示され、その中に頭位角度表示53hやアバター表示54hが配置されている。
頭振り眼振検査も頭位眼振検査(座位)と同様に、頭振り眼振検査用アイコン48bに沿って検査を実行し、同様に眼球角度解析結果72b及び眼球速度解析結果73bとして解析結果も表示することが可能である。
本実施の形態に係る眼振解析システム1の頭位センサ7によって得られる頭位データ19は、このように頭振り眼振検査でも活用することができる。この検査では、まず頭部を前屈30°等に傾けて、この状態か頭部を左右に45°等に捻転して戻す動きを0.5秒〜1秒周期で10〜20回繰り返す。この運動の後、正面を向いて誘発された眼振を観測する。頭位センサ7があることにより、前屈の角度や左右捻転の角度を正確に担保することができ、診察記録についても検査が正しく行われたことを確認できる。このことはこれまで曖昧だった検査の標準化にも大きく貢献することができる。
Finally, FIG. 17 shows an operation screen 70h that is opened by clicking “head swing” in the operation icons 71b. In the operation icon 71b, the position of "head swing" is shown in dark color, which indicates that it is selected.
In the state shown in FIG. 17, a head shake nystagmus test icon 48b composed of “right” and “left” is displayed in order to perform a head shake nystagmus test. In this state, as in the case of the head nystagmus test (seated position) described with reference to FIGS. 11 to 16, the nystagmus test image 50 h is displayed, and the head position angle display 53 h and the avatar display 54 h are arranged therein. Have been.
The head shake nystagmus test is also performed along the head shake nystagmus test icon 48b in the same manner as the head position nystagmus test (seated position), and is similarly analyzed as the eyeball angle analysis result 72b and the eyeball speed analysis result 73b. Can also be displayed.
The head position data 19 obtained by the head position sensor 7 of the nystagmus analysis system 1 according to the present embodiment can be used in the head nystagmus test as described above. In this inspection, the head is first tilted at a forward bending angle of 30 ° or the like, and the motion of returning the head to the left or right at an angle of 45 ° or the like is repeated 10 to 20 times at a cycle of 0.5 seconds to 1 second. After this exercise, observe the evoked nystagmus head-on. Since the head position sensor 7 is provided, the angle of forward bending and the angle of left-right twist can be secured accurately, and it can be confirmed that the examination has been correctly performed on the medical examination record. This can greatly contribute to the standardization of inspections that has been ambiguous until now.

以上説明したように、本発明の請求項1乃至請求項5に記載された発明は、クリニックや病院等めまい症や平衡機能障害の診断・治療を行う医療機関における眼振検査装置として利用可能である。   As described above, the invention described in claims 1 to 5 of the present invention can be used as a nystagmus test device in a medical institution such as a clinic or a hospital that diagnoses and treats vertigo and balance dysfunction. is there.

1…眼振解析システム 2…入力部 2a…キーボード 2b…マウス 3…出力部 4…VOGゴーグル 5…カメラ 6…マイク 7…頭位センサ 8…解析部 データ処理部 10…瞳孔検出処理部 11…瞳孔回転角解析部 12…水平・垂直・回旋速度解析部 13…姿勢解析部 14…データベース 15…頭位データしきい値 16…検査工程データ 17…画像データ 18…音声データ 19…頭位データ 20…眼振データ 21…姿勢データ 22…瞳孔探索範囲 23…探索パラメータ 24…虹彩紋理パターン 25…解析結果 26…パーソナルコンピュータ 27…医療用絶縁トランス 28…交流電源 30…暗視カバー 31…ゴーグル本体 32…ホットミラー 33…カメラレンズ 34…カメラ本体 35…赤外線LED 36…CMOS基板 37…9軸センサ基板 38…カメラインターフェース基板 39…USBケーブル 40…眼振検査時表示画面 41…注視眼振検査用表示 42…頭位眼振検査(座位)用表示 43…頭位眼振検査(臥位)用表示 44…頭振り眼振検査用表示 45a…注視眼振検査選択アイコン 45b…注視眼振検査用アイコン 46a…頭位眼振検査(座位)選択アイコン 46b…頭位眼振検査(座位)用アイコン 47a…頭位眼振検査(臥位)選択アイコン 47b…頭位眼振検査(臥位)用アイコン 48a…頭振り眼振検査選択アイコン 48b…頭振り眼振検査用アイコン 50,50a〜50h…眼振検査時画像 51…頭位角度表示アイコン 52…座位正面位置セットアイコン 53,53a〜53h…頭位角度表示 54,54a〜54h…アバター表示 55…x軸 56…y軸 57…w軸 58…キャリブレーションアイコン 59…解析結果表示アイコン 60…FVAL信号線図 61…頭位データ取得線図 62…処理・解析線図 63…コールバック関数呼出タイミング 64…頭位データ取得表示 65…処理・解析タイミング表示 66…録画停止アイコン 70,70a〜70h…操作画面 71,71a,71b…操作アイコン 72,72a,72b…眼球角度解析結果 73,73a,73b…眼球速度解析結果   Reference Signs List 1 nystagmus analysis system 2 input unit 2a keyboard 2b mouse 3 output unit 4 VOG goggles 5 camera 6 microphone 7 head position sensor 8 analysis unit data processing unit 10 pupil detection processing unit 11 Pupil rotation angle analysis unit 12 Horizontal / vertical / rotational speed analysis unit 13 Posture analysis unit 14 Database 15 Head position data threshold 16 Inspection process data 17 Image data 18 Voice data 19 Head position data 20 ... nystagmus data 21 ... posture data 22 ... pupil search range 23 ... search parameters 24 ... iris print pattern 25 ... analysis results 26 ... personal computer 27 ... medical insulation transformer 28 ... AC power supply 30 ... night-vision cover 31 ... goggle body 32 ... Hot mirror 33 ... Camera lens 34 ... Camera body 35 ... Infrared LED 6 CMOS board 37 9-axis sensor board 38 Camera interface board 39 USB cable 40 Display screen during nystagmus test 41 Display for gazing nystagmus test 42 Display for nystagmus test (seated position) 43 Head Display for postural nystagmus test (lying position) 44 ... Display for head nystagmus test 45a ... Gaze nystagmus test selection icon 45b ... Gaze nystagmus test icon 46a ... Head position nystagmus test (seated position) selection icon 46b ... Head Icon for nystagmus test (seated position) 47a ... Icon for head nystagmus test (lying position) 47b ... Icon for nystagmus test (lying position) 48a ... Head nystagmus test selection icon 48b ... Head nystagmus Inspection icons 50, 50a to 50h: Image during nystagmus inspection 51: Head position angle display icon 52: Sitting front position set icon 53, 53a to 53h: Head position angle display 54, 54a to 54h: avatar display 55 ... x-axis 56 ... y-axis 57 ... w-axis 58 ... calibration icon 59 ... analysis result display icon 60 ... FVAL signal line diagram 61 ... head position data acquisition line diagram 62 ... processing / analysis Diagram 63 ... Callback function call timing 64 ... Head position data acquisition display 65 ... Processing / analysis timing display 66 ... Recording stop icon 70,70a-70h ... Operation screen 71,71a, 71b ... Operation icon 72,72a, 72b ... Eyeball angle analysis results 73, 73a, 73b ... Eyeball velocity analysis results

Claims (5)

被検者の瞳孔を撮影するカメラと、前記被検者の頭位を測定する頭位センサと、前記カメラで撮影された瞳孔映像データを入力して眼振データを出力する眼振解析部と、出力部と、を有し、前記眼振解析部は、前記カメラで撮影された瞳孔映像データのフレーム毎の画像データを取得し、この取得をトリガーとして、前記頭位センサから頭位データを取得して前記画像データに紐付けると共に、前記画像データを用いて眼振解析して前記眼振データを生成して前記画像データ又は前記頭位データに紐付け、前記出力部は、紐付けされた前記画像データ、前記頭位データ及び前記眼振データのうち、少なくとも2つのデータを出力することを特徴とする眼振解析システム。   A camera for photographing the pupil of the subject, a head position sensor for measuring the head position of the subject, and a nystagmus analyzing unit for inputting pupil image data photographed by the camera and outputting nystagmus data And an output unit, wherein the nystagmus analysis unit acquires image data for each frame of pupil image data captured by the camera, and using this acquisition as a trigger, converts head position data from the head position sensor. Acquired and linked to the image data, nystagmus analysis is performed using the image data to generate the nystagmus data, linked to the image data or the head position data, and the output unit is linked And outputting at least two of the image data, the head position data, and the nystagmus data. 前記眼振解析部は、前記頭位データに対するしきい値を備え、前記被検者の姿勢を判断して姿勢データを生成し、前記出力部は、前記姿勢データを出力することを特徴とする請求項1記載の眼振解析システム。   The nystagmus analysis unit includes a threshold value for the head position data, determines posture of the subject, generates posture data, and the output unit outputs the posture data. The nystagmus analysis system according to claim 1. 前記眼振解析部は、予め所望に定められた複数の検査工程の開始と終了を前記姿勢データを用いて判断し、前記出力部は、前記複数の検査工程のうち実行中の検査工程を表示することを特徴とする請求項2に記載の眼振解析システム。   The nystagmus analysis unit determines, using the posture data, the start and end of a plurality of inspection processes predetermined as desired, and the output unit displays an active inspection process among the plurality of inspection processes. The nystagmus analysis system according to claim 2, wherein: 前記頭位センサは、前記被検者が所望の方向を向いている状態で前記頭位データをリセットする機能を備えることを特徴とする請求項1乃至請求項3のいずれか1項に記載の眼振解析システム。   4. The head position sensor according to claim 1, wherein the head position sensor has a function of resetting the head position data when the subject is facing a desired direction. 5. Nystagmus analysis system. 前記眼振解析部は、前記頭位データに基づいて前記被検者のアバターを生成し、前記出力部は、前記アバターを出力することを特徴とする請求項1乃至請求項4のいずれか1項に記載に眼振解析システム。   The said nystagmus analysis part produces | generates the avatar of the said subject based on the said head position data, The said output part outputs the said avatar, The Claim 1 characterized by the above-mentioned. Nystagmus analysis system as described in the section.
JP2018146216A 2018-08-02 2018-08-02 Nystagmus analysis system Active JP7209954B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018146216A JP7209954B2 (en) 2018-08-02 2018-08-02 Nystagmus analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018146216A JP7209954B2 (en) 2018-08-02 2018-08-02 Nystagmus analysis system

Publications (2)

Publication Number Publication Date
JP2020018704A true JP2020018704A (en) 2020-02-06
JP7209954B2 JP7209954B2 (en) 2023-01-23

Family

ID=69587458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018146216A Active JP7209954B2 (en) 2018-08-02 2018-08-02 Nystagmus analysis system

Country Status (1)

Country Link
JP (1) JP7209954B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112043235A (en) * 2020-07-13 2020-12-08 天津市眼科医院 Portable eyeball static rotation measuring instrument and method for measuring eyeball rotation angle by using same
CN112116856A (en) * 2020-09-08 2020-12-22 温州市人民医院 BPPV diagnosis and treatment skill training system and method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09285468A (en) * 1996-02-23 1997-11-04 Morita Mfg Co Ltd Balance function inspection device
JPH11225967A (en) * 1998-02-12 1999-08-24 Morita Mfg Co Ltd Oculogyration analysis method, oculogyration display and diagnosis device, and recording medium in which private diagnosis file is recorded
JP2005304912A (en) * 2004-04-23 2005-11-04 Matsushita Electric Works Ltd Nystagmograph to be used for treating vertigo
JP2006527443A (en) * 2003-06-12 2006-11-30 本田技研工業株式会社 Target orientation estimation using depth detection
JP2007029207A (en) * 2005-07-25 2007-02-08 Univ Of Tokushima Ocular movement imaging apparatus
JP2016087093A (en) * 2014-11-05 2016-05-23 株式会社国際電気通信基礎技術研究所 Eyeball movement inspection apparatus
US9775512B1 (en) * 2014-03-19 2017-10-03 Christopher W. Tyler Binocular eye tracking from video frame sequences
JP2017536589A (en) * 2014-06-20 2017-12-07 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Device, method and computer program for detecting instantaneous sleep

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09285468A (en) * 1996-02-23 1997-11-04 Morita Mfg Co Ltd Balance function inspection device
JPH11225967A (en) * 1998-02-12 1999-08-24 Morita Mfg Co Ltd Oculogyration analysis method, oculogyration display and diagnosis device, and recording medium in which private diagnosis file is recorded
JP2006527443A (en) * 2003-06-12 2006-11-30 本田技研工業株式会社 Target orientation estimation using depth detection
JP2005304912A (en) * 2004-04-23 2005-11-04 Matsushita Electric Works Ltd Nystagmograph to be used for treating vertigo
JP2007029207A (en) * 2005-07-25 2007-02-08 Univ Of Tokushima Ocular movement imaging apparatus
US9775512B1 (en) * 2014-03-19 2017-10-03 Christopher W. Tyler Binocular eye tracking from video frame sequences
JP2017536589A (en) * 2014-06-20 2017-12-07 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Device, method and computer program for detecting instantaneous sleep
JP2016087093A (en) * 2014-11-05 2016-05-23 株式会社国際電気通信基礎技術研究所 Eyeball movement inspection apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112043235A (en) * 2020-07-13 2020-12-08 天津市眼科医院 Portable eyeball static rotation measuring instrument and method for measuring eyeball rotation angle by using same
CN112043235B (en) * 2020-07-13 2024-02-06 天津市眼科医院 Portable eyeball static rotation measuring instrument and method for measuring eyeball rotation angle by utilizing same
CN112116856A (en) * 2020-09-08 2020-12-22 温州市人民医院 BPPV diagnosis and treatment skill training system and method

Also Published As

Publication number Publication date
JP7209954B2 (en) 2023-01-23

Similar Documents

Publication Publication Date Title
JP5700427B2 (en) Autism diagnosis support device
KR101785255B1 (en) Shape discrimination vision assessment and tracking system
US10709328B2 (en) Main module, system and method for self-examination of a user&#39;s eye
US10070787B2 (en) System and method for detection and monitoring of a physical condition of a user
JP7209954B2 (en) Nystagmus analysis system
KR102041460B1 (en) Diagnosis apparatus for dizziness using virtual reality with no head movement
KR101984993B1 (en) Visual field examination device using personalized marker control
JP7333359B2 (en) Imaging device, eye movement data processing system, and control method
CN118338853A (en) Computer program, information processing method, and information processing apparatus
US20220230749A1 (en) Systems and methods for ophthalmic digital diagnostics via telemedicine
US10779726B2 (en) Device and method for determining eye movements by tactile interface
EP4111984A1 (en) Information processing method, computer program, information processing device, and information processing system
JP7449898B2 (en) Imaging device, eye movement data processing system, and control method
WO2022225037A1 (en) Examination system, examination device, examination method, and examination program
JP7315501B2 (en) Vision inspection device, vision inspection program and vision inspection method
JP2020184219A (en) Medical information display device, and medical information display system
JP6661882B2 (en) Information processing apparatus, tremor information display method, information processing system, and program
WO2023095321A1 (en) Information processing device, information processing system, and information processing method
JPH04279143A (en) Eyeball motion inspector
JP2019024608A (en) Visual line detection and calibration method and system, and computer program
US20230172507A1 (en) Method, System and Apparatus for Investigating or Assessing Eye or Pupil Movement
JP4054713B2 (en) Puzzled detection method and puzzled detection program
TWM405605U (en) Eyeball medical tracking device
KR20220093781A (en) Wearable neurological disease diagnosis device and the method
EP4011273A1 (en) Method and device for determining at least one astigmatic effect of at least one eye

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190617

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221227

R150 Certificate of patent or registration of utility model

Ref document number: 7209954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150