JP2022001309A - Ophthalmologic apparatus and ophthalmologic measuring method - Google Patents
Ophthalmologic apparatus and ophthalmologic measuring method Download PDFInfo
- Publication number
- JP2022001309A JP2022001309A JP2021167694A JP2021167694A JP2022001309A JP 2022001309 A JP2022001309 A JP 2022001309A JP 2021167694 A JP2021167694 A JP 2021167694A JP 2021167694 A JP2021167694 A JP 2021167694A JP 2022001309 A JP2022001309 A JP 2022001309A
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- learning
- unit
- eye
- measuring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、眼科装置及び眼科測定方法に関する。 The present invention relates to an ophthalmic apparatus and an ophthalmic measuring method.
眼科装置では、被検眼に対する測定光学系の位置を自動で調整するオートアライメントを行うものが提案されている(例えば、特許文献1参照)。この眼科装置は、オートアライメントされた測定光学系により、自動で被検眼の眼屈折力や角膜形状等の眼特性(光学特性)を測定(検査)する。 An ophthalmic apparatus has been proposed that performs auto-alignment that automatically adjusts the position of the measurement optical system with respect to the eye to be inspected (see, for example, Patent Document 1). This ophthalmic apparatus automatically measures (inspects) eye characteristics (optical characteristics) such as the optical power of the eye to be inspected and the shape of the cornea by using an auto-aligned measurement optical system.
ところで、上記した従来の眼科装置では、疾病等により被検眼の状態が特殊である等によりオートアライメントが行えなかったり、オートアライメントは成功しても露光不足等を生じたりして、眼特性を自動で測定できない状況がある。ここで、従来の眼科装置は、予め定められた測定手順に沿って自動で測定を行っているので、上記した状況に対しては何度実行しても自動で測定できない可能性が高い。このため、従来の眼科装置では、被検眼の眼特性を自動で測定できる状況に制限が生じてしまう。 By the way, in the above-mentioned conventional ophthalmic apparatus, auto-alignment cannot be performed due to a special condition of the eye to be inspected due to a disease or the like, or even if auto-alignment is successful, underexposure may occur and the eye characteristics are automatically adjusted. There are situations where it cannot be measured. Here, since the conventional ophthalmic apparatus automatically performs measurement according to a predetermined measurement procedure, there is a high possibility that the above-mentioned situation cannot be automatically measured no matter how many times it is executed. For this reason, the conventional ophthalmic apparatus limits the situation in which the eye characteristics of the eye to be inspected can be automatically measured.
本発明は、上記の事情に鑑みて為されたもので、被検眼の眼特定を自動で測定できる状況を拡げ、測定性能を向上させることを目的とするものである。 The present invention has been made in view of the above circumstances, and an object of the present invention is to expand the situation in which the eye identification of the eye to be inspected can be automatically measured and to improve the measurement performance.
上記の目的を達成するため、本願に係る眼科装置は、被検眼の眼特性を測定する眼特性測定部と、前記眼特性測定部で測定を行ったときの測定条件を取得する測定条件取得部と、予め定められた測定手順が記憶されている記憶部と、前記記憶部から取得した所定の前記測定手順に沿って前記眼特性測定部を制御する制御部と、前記測定手順では眼特性の測定が行えない状況での前記測定条件、前記被検眼の状況に関する状況データ、及び眼科装置本体のモダリティに基づいて、測定が行えない状況を回避する学習測定手順及び学習測定条件を生成する学習部と、を備え、前記制御部は、前記学習部によって生成された前記学習測定手順を、前記測定手順として前記記憶部に記憶するとともに、前記学習部によって生成された前記学習測定条件から当該学習測定手順に対応する前記学習測定条件を抽出し、前記学習測定手順に沿って、抽出した前記学習測定条件に基づいて前記眼特性測定部を制御して、前記被検眼の眼特性の測定を行うことを特徴とする。 In order to achieve the above object, the ophthalmic apparatus according to the present application includes an eye characteristic measurement unit that measures the eye characteristics of the eye to be inspected and a measurement condition acquisition unit that acquires the measurement conditions when the measurement is performed by the eye characteristic measurement unit. A storage unit in which a predetermined measurement procedure is stored, a control unit that controls the eye characteristic measurement unit according to a predetermined measurement procedure acquired from the storage unit, and an eye characteristic in the measurement procedure. A learning unit that generates learning measurement procedures and learning measurement conditions that avoid situations where measurement cannot be performed, based on the measurement conditions in situations where measurement cannot be performed, situation data regarding the status of the eye to be inspected, and the modality of the main body of the ophthalmic device. The control unit stores the learning measurement procedure generated by the learning unit in the storage unit as the measurement procedure, and the learning measurement is performed from the learning measurement conditions generated by the learning unit. The learning measurement condition corresponding to the procedure is extracted, and the eye characteristic measurement unit is controlled based on the extracted learning measurement condition according to the learning measurement procedure to measure the eye characteristic of the eye to be inspected. It is characterized by.
また、本願に係る眼科測定方法は、上記眼科装置で行われる眼科測定方法であって、記憶部に記憶されている予め定められた測定手順に沿って被検眼の眼特性を測定する工程と、前記眼特性を測定するときの測定条件を取得する工程と、前記被検眼の状況に関する状況データ、及び前記眼科装置本体のモダリティを取得する工程と、眼特性の測定が行えない状況での前記測定条件、前記状況データ、及び前記モダリティに基づいて、測定が行えない状況を回避する学習測定条件を生成する工程と、前記学習測定手順及び前記学習測定条件を生成する工程で生成された前記学習測定手順を、前記測定手順として前記記憶部に記憶するとともに、生成された前記学習測定条件から当該学習測定手順に対応する前記学習測定条件を抽出し、前記学習測定手順に沿って、抽出した前記学習測定条件に基づいて前記被検眼の眼特性を測定する工程と、を有することを特徴とする。 Further, the ophthalmic measurement method according to the present application is an ophthalmic measurement method performed by the above ophthalmologic apparatus, and includes a step of measuring the ocular characteristics of the eye to be inspected according to a predetermined measurement procedure stored in a storage unit. The step of acquiring the measurement conditions for measuring the eye characteristics, the step of acquiring the status data regarding the condition of the eye to be inspected, and the step of acquiring the modality of the ophthalmic apparatus main body, and the measurement in a situation where the eye characteristics cannot be measured. The learning measurement generated in the step of generating a learning measurement condition for avoiding a situation in which measurement cannot be performed based on the condition, the situation data, and the modality, and the step of generating the learning measurement procedure and the learning measurement condition. The procedure is stored in the storage unit as the measurement procedure, and the learning measurement condition corresponding to the learning measurement procedure is extracted from the generated learning measurement condition, and the extracted learning is performed according to the learning measurement procedure. It is characterized by having a step of measuring the ocular characteristics of the eye to be inspected based on the measurement conditions.
本発明によれば、被検眼の眼特定を自動で測定できる状況を拡げ、測定性能を向上させることが可能となる。 According to the present invention, it is possible to expand the situation in which the eye identification of the eye to be inspected can be automatically measured and improve the measurement performance.
以下に、本開示に係る眼科装置の実施の形態について図面を参照しつつ説明する。 Hereinafter, embodiments of the ophthalmic apparatus according to the present disclosure will be described with reference to the drawings.
実施例1に係る眼科装置100は、クラウドコンピューティングサービスを利用して構築され、図1に示すように、クラウド2上に設けられたクラウドサーバ3と、複数の眼科装置本体10とが、通信ネットワーク1を介して相互に接続されている。
The
通信ネットワーク1は、クラウドサーバ3と眼科装置本体10との接続を制御するものであれば、特に限定されることはない。通信ネットワーク1として、例えば、インターネット等の公衆電話回線、専用電話回線、光通信回線、PAN(Personal Area Network)、LAN(Local Area Network)、MAN(Metropolitan Area Network)、WAN(Wide Area Network)、Wimax(Worldwide Interoperability for Microwave Access)、携帯電話網等の無線ネットワーク等を用いることができる。
The communication network 1 is not particularly limited as long as it controls the connection between the
次に、クラウドサーバ3及び眼科装置本体10の機能について、図2の機能ブロック図を参照して説明する。この図2に示すように、クラウドサーバ3は、例えばデータセンター4に設置されている。
Next, the functions of the
クラウドサーバ3は、記憶部5と学習部6とを有している。記憶部5は、眼科装置本体10から通信ネットワーク1を介して送信される測定条件データや状況データ等の眼科測定情報(エラーログデータ)を蓄積するデータ蓄積部7と、学習部6によってアップデートされた人工知能エンジンを記憶する人工知能エンジン記憶部8とを有している。
The
学習部6は、いわゆる人工知能(AI(Artificial Intelligence))から構成される。学習部6は、データ蓄積部7に蓄積されたエラーログデータに基づいて、エラーを回避するためのエラー回避データ(学習測定条件データ)を生成する。エラー回避情報は、予め定められた測定シーケンス(測定手順)では眼特性を測定できない状況での被検眼Eの眼特性を測定する方法(回避策)である。学習部6は、作成したエラー回避情報に基づいて、人工知能エンジン記憶部8に記憶された人工知能エンジンをアップデートする。アップデートされた人工知能エンジンは、眼科装置本体10からの更新要求により、又は定期的に自動で通信ネットワーク1を介して眼科装置本体10に送信される。
The
眼科装置100がまだ使用されていない初期状態においては、測定ができない状況が発生しておらず、エラーログデータの作成や送信が行われていないため、学習部6では学習が行われておらず、エラー回避情報は蓄積されていない。眼科装置100が使用されて、眼特性が測定できない状況が発生してエラーログデータが送信されることで、学習が開始され、様々な状況に対応したエラー回避情報が蓄積されていく。しかしながら、予めいくつかの測定できない状況を想定して学習部6に学習させ、エラー回避情報を蓄積した人工知能エンジンを生成して人工知能エンジン記憶部8に記憶し、眼科装置本体10に配信しておくこともできる。
In the initial state in which the
データ蓄積部7と人工知能エンジン記憶部8とは、例えば、接続される眼科装置本体10の機種ごとに設けることができる。この場合、学習部6が、機種ごとのデータ蓄積部7のエラーログデータに基づいて、機種ごとに人工知能エンジンをアップデートする。これにより、同機種の各眼科装置本体10での様々な眼特性が測定できない状況に対する学習結果を共有することができる。また、様々な状況でのエラーログデータに基づいて学習するため、学習部6の学習性能が向上し、生成される人工知能エンジンの性能も向上させることができる。このような人工知能エンジンを各眼科装置本体10で使用することで、被検眼Eの眼特定を自動で測定できる状況を拡げ、測定性能を向上させることができる。
The data storage unit 7 and the artificial intelligence
また、データ蓄積部7と人工知能エンジン記憶部8とを、眼科装置本体10ごとに設けることもできる。この場合、学習部6は、眼科装置本体10ごとに、エラーログデータを解析して学習し、それぞれの人工知能エンジンをアップデートする構成とすることもできる。
Further, a data storage unit 7 and an artificial intelligence
なお、このような記憶部5と学習部6とを有する装置が、クラウドサーバ3に限定されることはなく、眼科装置本体10と通信ネットワーク1やケーブル等を介して接続された汎用大型コンピュータ(メインフレーム)や自社サーバを用いることもできるし、より簡素化するためにパーソナルコンピュータを用いることもできる。また、眼科装置本体10内に、一体に記憶部5と学習部6とを設けることもできる。
The device having such a
眼科装置本体10は、図2に示すように、測定部20と、ユーザインタフェース部30と、制御部40と、データ処理部50と、記憶部60とを備えて構成される。
As shown in FIG. 2, the ophthalmic apparatus
測定部20は、被検眼Eの眼特性(光学特性)を測定する機能を有している。測定部20は、各種光学系により眼特性の測定や被検眼Eの画像を撮影する眼特性測定部16と、測定条件データを取得する測定条件取得部17とを備えている。
The measuring
測定条件データは、アライメントや眼特性の測定等、眼特性測定部16が動作するときのパラメータである。例えば、アライメント時の架台の移動速度等の制御パラメータ(動作履歴データ)、光学系の焦点距離、ゲイン、計測位置、露光量等の測定パラメータ等が挙げられる。また、測定条件データとして、測定モードも挙げられる。測定モードとは、眼特性の測定部位や測定目的等に応じて、焦点距離、ゲイン、計測位置、露光量等の各種測定パラメータ等が予め決められて一つにまとめられたデータセットのことである。測定モードとして、例えば、視神経乳頭の測定モードや黄斑測定モード等がある。眼特性の測定時に測定モードを指定すれば、各種測定パラメータが自動で設定され、測定が実行される。また、測定モードを指定せずに、個々に測定パラメータを入力して眼特性の測定をすることもできる。眼科装置本体10では、ユーザインタフェース部30で行われる操作や入力された各種パラメータに従って、制御部40の制御下で、光学系や駆動部材が動作してアライメントや測定を行うため、このような測定条件データの取得が可能である。
The measurement condition data is a parameter when the eye
ユーザインタフェース部30は、各種データの入力や出力を行う機能を有し、測定部20を操作するための操作部31と、測定部20で撮影した画像等を表示する表示部32と、測定に用いるパラメータ等の各種データを入力する入力部33とを備えている。
The
記憶部60は、ROM、RAM等の内部メモリや、HDD、フラッシュメモリ等の外部メモリから構成されている。記憶部60には、眼科装置本体10を動作させるプログラムや測定に用いられる各種データが記憶される。この他にも、記憶部60は、エラーログデータが記憶されるエラーログデータ記憶部61と、クラウドサーバ3から配信されたアップデート用の人工知能エンジンが記憶される人工知能エンジン記憶部62とを備えている。
The
制御部40は、記憶部60に記憶されたプログラムに基づき、眼科装置本体10の動作を統括的に制御する。制御部40は、図2に示すように、入出力制御部41と、測定シーケンス制御部42と、エラー処理部43とを備えている。
The
入出力制御部41は、眼科装置本体10内でのデータの入出力と、眼科装置本体10とクラウドサーバ3のデータの入出力を制御する。入出力制御部41は、操作部31での操作データや入力部33からの入力データを受付け、測定シーケンス制御部42やエラー処理部43に送信する。また、入出力制御部41は、エラーログデータを人工知能エンジン51に入力する。さらに入出力制御部41は、通信ネットワーク1を介してクラウドサーバ3と通信し、エラー処理部43からのエラーログデータをクラウドサーバ3に送信する。また、所定のタイミングでクラウドサーバ3に対して人工知能エンジンの更新要求を送信し、この更新要求に対してクラウドサーバ3から配信されるアップデートされた人工知能エンジンを受信し、人工知能エンジン記憶部62に記憶する。
The input /
エラーログデータの送信は、例えば、眼科装置本体10の電源をオフするタイミングで行うことができる。また、エラーログデータが作成される度に行うこともできるし、所定時間ごとや予め定められた時間に送信することもできる。また、入力部33で送信を指示することもできる。アップデートされた人工知能エンジンの更新要求と受信は、例えば、眼科装置本体10の電源がオンされたときに行うことができるし、所定時間ごとや予め定められた時間に行うこともできる。また、入力部33で更新要求を指示することもできる。
The error log data can be transmitted, for example, at the timing when the power of the ophthalmic apparatus
測定シーケンス制御部42は、操作部31からの操作データ、入力部33からの入力データに基づき、記憶部60に記憶された予め定められた測定シーケンスに従って、測定部20を制御し、アライメントや被検眼Eの眼特性測定を実行させる。また、測定シーケンス制御部42は、所定の測定シーケンスでは眼特性の測定できない状況が生じた場合、その状況での測定条件データや状況データ等の眼科測定情報をデータ処理部50に入力し、データ処理部50から出力された学習測定シーケンスに従って、測定部20を制御し、測定処理を再度実行させる。
The measurement
状況データは、被検眼Eの状況を示すものであり、一例として被検者(被検眼E)データや、測定部20で取得された被検眼Eの画像(静止画および動画)等があげられる。被検者データは、例えば、被検者の年齢、性別、被検者ID、人種、被検眼Eの既往症(緑内障、白内障等)、被検眼Eの眼特性(円錐角膜、角膜頂点の荒れ等)等が挙げられる。これらは操作部31や入力部33を用いて入力したり、眼科装置本体10に接続した外部機器等から取得したりすることができる。画像は、眼特性測定部16で撮影された前眼部画像E′、眼底画像、眼底断層像(OCT画像)等が挙げられる。
The situation data shows the situation of the eye to be inspected E, and examples thereof include data on the subject (eye to be inspected E) and images (still images and moving images) of the eye to be inspected E acquired by the measuring
エラー処理部43は、所定の測定シーケンスでは眼特性を測定できない状況となったときの各種データを収集してエラーログデータを作成し、エラーログデータ記憶部61に記憶する。エラーログデータとしては、例えば、測定できない状況でのアライメント時の架台13やヘッド部14の移動速度等の制御パラメータ(動作履歴データ)、眼特性測定時の光学系の測定パラメータ等の測定条件データと、前眼部画像E′等の画像、被検者データ等の状況データ、測定モードとが、モダリティ(眼科装置本体10を識別するためのデバイス情報)やエラーコード等と紐付けられたデータである。また、エラー処理部43は、作成したエラーログデータを入出力制御部41に送信する。
The
データ処理部50は、眼特性測定部16の動作を制御する制御部の一つとして機能し、人工知能エンジン51と、エラー回避処理部52とを備えている。人工知能エンジン51には、人工知能エンジン記憶部62に記憶された最新の人工知能エンジンがアップロードされている。人工知能エンジン51は、所定の測定シーケンスで測定できない状況でのエラーログデータを解析し、その状況を回避する可能性の高い学習測定条件(エラー回避情報)を抽出する。エラー回避情報としては、例えば、状況データに応じた測定モード(以下、「エラー回避測定モード」という)、アライメントのための架台13の移動速度等の制御パラメータ(以下、「エラー回避制御パラメータ」という)、眼特性測定のための焦点距離、ゲイン、計測位置、露光量等の測定パラメータ(以下、「エラー回避測定パラメータ」という)等が挙げられる。エラー回避処理部52は、抽出されたエラー回避情報を、制御部40の測定シーケンス制御部42に出力する。
The
上述のような眼科装置本体10としては、例えば、眼屈折力や眼の曲率半径を測定する眼特性測定装置(オートケラトレクレクトメータ等)、眼圧を測定する眼圧測定装置、視力を測定する検眼装置、眼底観察や眼底像を撮影する眼底カメラ装置、眼底像を3次元で撮影する3次元眼底像撮影装置等が挙げられる。これらの眼科装置本体10は、1種類のものを1台又は複数台用いることもできるし、複数種類のものをそれぞれ1台又は複数台用いることもできる。
The ophthalmic apparatus
以下では、眼科装置本体10の一例として、眼屈折力や眼の曲率半径を測定する眼特性測定装置について説明する。この眼科装置本体10は、図1、図3、図4に示すように、ベース11と駆動部12と架台13とヘッド部14と顔受け部15と、ユーザインタフェース部30としての操作部31、表示部32及び入力部33とを有する。この眼科装置本体10では、駆動部12を介してベース11に架台13が設けられ、駆動部12によりベース11に対して架台13が前後左右上下に移動可能とされる。
Hereinafter, as an example of the ophthalmic apparatus
ベース11には、被検者の顔を固定する顔受け部15が設けられる。架台13には、ヘッド部14が設けられる。操作部31は架台13に設けられ、傾倒されるとヘッド部14の前後左右方向への移動操作となり、軸線を回転中心として回転されるとヘッド部14の上下方向への移動操作となる。表示部32は、ヘッド部14に設けられ、一例として液晶表示装置(LCDモニタ)で構成してタッチパネル式の表示画面32a(図4参照)を有する。この表示画面32aは、被検者データ等を入力する入力部33として機能する。
The
ヘッド部14には、前述の制御部40、データ処理部50、記憶部60が設けられる。制御部40は、接続された記憶装置や内部メモリ等からなる記憶部60に記憶されたプログラムに基づき、眼科装置本体10の動作を統括的に制御する。制御部40には、後述する各光学系の光源(視標光源22a、グレア光源22n、レフ測定光源23g、アライメント光源25a、アライメント光源26aおよびケラトリング光源27b)が接続され、適宜それらを点灯および消灯させる。制御部40には、後述の各光学系の動作部(撮像素子21g、ターレット部22d、合焦レンズ22h、VCCレンズ22k、レフ光源ユニット部23aおよび合焦レンズ23tの駆動部)が接続され、適宜それらを駆動(移動も含む)させる。
The
また制御部40には、駆動部12、操作部31、表示部32および入力部33が接続され、操作部31の操作や入力部33での入力や上記のプログラムに従い、撮像素子21gで取得した画像を表示部32の表示画面32aに適宜表示させる。
Further, the
ヘッド部14には、被検眼の検査を行うための光学系が設けられる。この光学系が、被検眼Eの眼特性を測定する眼特性測定部16として機能する。この眼特性測定部16としての光学系は、図3に示すように、観察系21と視標投影系22と眼屈折力測定系23と自覚式検査系24とアライメント系25、26とケラト系27とを有して構成される。なお、観察系21、視標投影系22、眼屈折力測定系23、自覚式検査系24、アライメント系25、アライメント系26およびケラト系27等の構成や、眼屈折力(レフ)、自覚検査および角膜形状(ケラト)の測定原理等は、公知であるので、詳細な説明は省略し、以下では簡単に説明する。
The
観察系21は、被検眼Eの前眼部を観察する機能を有し、対物レンズ21aとダイクロイックフィルタ21bとハーフミラー21cとリレーレンズ21dとダイクロイックフィルタ21eと結像レンズ21fと撮像素子(CCD)21gとを有する。観察系21は、被検眼E(前眼部)で反射された光束を撮像素子21g上に結像する。制御部40は、撮像素子21gから出力される画像信号に基づく前眼部画像E′等を表示部32の表示画面32aに表示させる。この対物レンズ21aの前方に、ケラト系27を設ける。
The
視標投影系22は、被検眼Eに視標を呈示する機能を有する。自覚式検査系24は、自覚検査を行い、被検眼Eに視標を呈示する機能を有し、光学系を構成する光学素子を視標投影系22と共用する。
The
視標投影系22及び自覚式検査系24は、視標光源22aと色補正フィルタ22bとコリメータレンズ22cとターレット部22dとハーフミラー22eとリレーレンズ22fと反射ミラー22gと合焦レンズ22hとリレーレンズ22iとフィールドレンズ22jとバリアブルクロスシリンダレンズ(VCCレンズ)22kと反射ミラー22lとダイクロイックフィルタ22mとを有する。視標投影系22及び自覚式検査系24は、ダイクロイックフィルタ21bおよび対物レンズ21aを観察系21と共用する。また、自覚式検査系24は、視標光源22aからの光路とは別の光路に、被検眼Eにグレア光を照射する少なくとも2つのグレア光源22nを有する。
The
ターレット部22dは、視標投影系22が被検眼Eの眼底Efに投影(被検眼Eに呈示)する視標を切り替える。視標投影系22は、上記した光学部材を経てターレット部22dが示す固視標を被検眼Eの眼底Efに投影する。検者または制御部40は、呈示した固視標を被検者に固視させた状態でアライメントを行い、被検眼Eの遠点に合焦レンズ22hを移動させた後にさらに雲霧状態として、調節休止時の眼屈折力を測定する。
The
自覚式検査系24は、制御部40の制御下で、合焦レンズ22hおよびVCCレンズ22kが適宜設定され、上記した光学部材を経て測定内容に応じるターレット部22dが示す視標を被検眼Eの眼底Efに投影する。検者または制御部40は、呈示した視標の見え方を被検者に質問し、その応答に応じた視標の選択と質問とを繰り返すことで処方値を決定する。ここで、グレア検査(グレアテスト)を行う場合には、制御部40の制御下でグレア光源22nを点灯させる。
In the
眼屈折力測定系23は、眼屈折力の測定を行う機能を有する。眼屈折力測定系23は、被検眼Eの眼底Efにリング状の測定パターンを投影するリング状光束投影系23Aと、その眼底Efからのリング状の測定パターンの反射光を検出(受像)するリング状光束受光系23Bと、を有する。
The ocular refractive
リング状光束投影系23Aは、レフ光源ユニット部23aとリレーレンズ23bと瞳リング絞り23cとフィールドレンズ23dと穴開きプリズム23eとロータリープリズム23fとを有する。リング状光束投影系23Aは、ダイクロイックフィルタ22mを視標投影系22(自覚式検査系24)と共用し、ダイクロイックフィルタ21bおよび対物レンズ21aを観察系21と共用する。レフ光源ユニット部23aは、LEDを用いたレフ測定用のレフ測定光源23gとコリメータレンズ23hと円錐プリズム23iとリングパターン形成板23jとを有し、それらが制御部40の制御下で眼屈折力測定系23の光軸上を一体的に移動可能とされる。リング状光束投影系23Aは、レフ光源ユニット部23aがリング状の測定パターンを出射し、上記した光学部材を経て対物レンズ21aに導くことで、被検眼Eの眼底Efにリング状の測定パターンを投影する。
The ring-shaped luminous
リング状光束受光系23Bは、穴開きプリズム23eの穴部23pとフィールドレンズ23qと反射ミラー23rとリレーレンズ23sと合焦レンズ23tと反射ミラー23uとを有する。リング状光束受光系23Bは、対物レンズ21a、ダイクロイックフィルタ21b、ダイクロイックフィルタ21e、結像レンズ21fおよび撮像素子21gを観察系21と共用し、ダイクロイックフィルタ22mを視標投影系22(自覚式検査系24)と共用し、ロータリープリズム23fおよび穴開きプリズム23eをリング状光束投影系23Aと共用する。リング状光束受光系23Bは、眼底Efに形成されたリング状の測定パターンを、上記した光学部材を経て撮像素子21gに結像させる。これにより、撮像素子21gがリング状の測定パターンの像を検出し、制御部40は、その測定パターンの像を表示画面32aに表示させ、その画像(撮像素子21g)からの画像信号に基づき、眼屈折力としての球面度数、円柱度数、軸角度を周知の手法により測定する。
The ring-shaped luminous flux
ケラト系27は、ケラト板27aとケラトリング光源27bとを有する。ケラト系27は、角膜形状の測定のためのケラトリング光束(角膜曲率測定用リング状指標)を被検眼Eの角膜Ecに投影する。ケラトリング光束は、角膜Ecで反射され、観察系21により撮像素子21g上に結像される。それに基づき角膜形状(曲率半径)を周知の手法により測定する。ケラト系27の後方に、アライメント系25を設ける。
The
アライメント系25、26は、被検眼Eに対する光学系のアライメント(位置合わせ)を行う機能を有する。アライメント系25は、観察系21の光軸に沿う方向(前後方向)のアライメントを行い、アライメント系26は、その光軸に直交する方向(上下方向、左右方向)のアライメントを行う。
The
アライメント系25は、一対のアライメント光源25aと投影レンズ25bとを有し、各アライメント光源25aからの光束を各投影レンズ25bで平行光束として角膜Ecに投影し、その様子を観察系21により撮像素子21g上に結像させる。制御部40または検者は、撮像素子21g上のアライメント光源25aによる2個の点像の間隔とケラトリング像の直径の比を所定範囲内とするように、ヘッド部14を前後方向に移動させることで、観察系21の光軸に沿う方向(前後方向)のアライメントを行う。なお、前後方向のアライメントは、後述するアライメント光源26aによる輝点像Brのピントが合うようにヘッド部14の位置を調整することで行ってもよい。
The
アライメント系26は、観察系21に設けられている。アライメント系26は、アライメント光源26aと投影レンズ26bとを有し、ハーフミラー21c、ダイクロイックフィルタ21bおよび対物レンズ21aを観察系21と共用する。アライメント系26は、アライメント光源26aからの光束を平行光束として角膜Ecに投影し、その様子を観察系21により撮像素子21g上に結像させる。制御部40または検者は、角膜Ecに投影された輝点(輝点像)に基づき、ヘッド部14を上下左右方向に移動させることで、観察系21の光軸に直交する方向(上下方向、左右方向)のアライメントを行う。このとき、制御部40は、輝点像Brが形成された前眼部画像E′に加えて、アライメントマークの目安となるアライメントマークALを表示画面32aに表示させる。
The
以上のような構成の実施例1に係る眼科装置100で行われる眼科測定処理(眼科測定方法)について説明する。眼科装置100では、眼科装置本体10で眼特性測定処理が行われ、クラウドサーバ3で学習処理が行われる。
The ophthalmologic measurement process (ophthalmology measurement method) performed by the
まず、眼科装置本体10で行われる眼特性測定処理の一例を、図5のフローチャートを用いて具体的に説明する。この図5のフローチャートは、眼科装置本体10において眼特性の測定を開始する旨の操作がなされることにより開始される。
First, an example of the eye characteristic measurement process performed by the ophthalmic apparatus
まず、ステップS1で、測定条件取得部17は、眼特性測定部16での眼特性測定処理における測定条件データの取得を開始する。次に、ステップS2で、入出力制御部41は、検者が操作部31や入力部33等から入力した年齢等の被検者データや測定モードを取得する。
First, in step S1, the measurement
次に、ステップS3に進み、制御部40の測定シーケンス制御部42が、被検者データや測定モードに応じて、予め定められた測定シーケンスに従って、アライメント用の制御パラメータや、眼特性測定用の測定パラメータ等を設定して、眼特性測定部16の初期設定を行う。
Next, in step S3, the measurement
その後、ステップS4に進み、眼特性測定部16のアライメント系25,36によってアライメントを行う。測定条件データとして、このアライメント時の架台13の移動速度や移動座標等の制御パラメータ(動作履歴データ)が測定条件取得部17によって取得される。また、状況データとして被検眼Eの前眼部画像E′、眼底画像、眼底断層像等が観察系21の撮像素子21gで取得される。
After that, the process proceeds to step S4, and alignment is performed by the
なお、アライメント系25,26によって自動でアライメントできなかった場合には、検者による手動でのアライメントに移行してもよい。このときの手動での制御パラメータ(動作履歴データ)も、測定条件データとして測定条件取得部17によって取得される。
If the
アライメントが終了すると、ステップS5に進む。ステップS5では、測定シーケンス制御部42が、所定の測定シーケンスに従って、眼特性測定部16を制御することで、眼特性測定部16が上述したような動作で被検眼Eの眼特性を測定する。このときの焦点距離、ゲイン、計測位置、露光量等の測定パラメータが、測定条件データとして測定条件取得部17によって取得される。
When the alignment is completed, the process proceeds to step S5. In step S5, the measurement
次のステップS6では、眼特性が適切に測定できたか否かを判断する。適切に測定が行われ、YESと判定された場合には、ステップS7進み、測定条件データの取得を終了して、眼特性測定処理を終了する。このときの測定条件データは、適切に測定が行われた状況を示すものとして記憶部60に記憶し、成功例として学習に使用することもできるし、学習に用いる必要がない場合は記憶せずに破棄することもできる。
In the next step S6, it is determined whether or not the eye characteristics can be appropriately measured. If the measurement is appropriately performed and YES is determined, the process proceeds to step S7, the acquisition of the measurement condition data is completed, and the eye characteristic measurement process is completed. The measurement condition data at this time can be stored in the
これに対して、ステップS6でNOと判定され、眼特性を適切に測定できない状況の場合には、ステップS8に進む。このような状況としては、例えば、被検眼Eにおいて、瞼や睫毛が前眼部(角膜Ec)に掛かっていたり、眼球振盪(眼振)が生じていたり、瞬きが頻繁であったり、円錐角膜となっていたりすること等により、アライメントが自動又は手動で適切に行なえず、その結果、眼特性を適切に測定できない状況が挙げられる。また、アライメントはできたが、光学系での露光不足、ピンボケ等によって眼特性を適切に測定できない状況が挙げられる。また、画像信号に基づいて球面度数等の測定値を算出する際に、オーバーフロー等により数値を算出できなくなった状況等も挙げられる。 On the other hand, if NO is determined in step S6 and the eye characteristics cannot be measured appropriately, the process proceeds to step S8. Such situations include, for example, in the eye E to be inspected, the eyelids and eyelashes hang on the anterior eye (cornea Ec), eye shake (eye shake) occurs, blinking frequently, and keratoconus. As a result, the eye characteristics cannot be measured properly because the alignment cannot be performed automatically or manually. In addition, although alignment was possible, there are situations in which eye characteristics cannot be measured appropriately due to insufficient exposure in the optical system, out-of-focus, and the like. Further, when calculating the measured value such as the spherical power based on the image signal, there may be a situation where the numerical value cannot be calculated due to overflow or the like.
ステップS8では、エラー処理部43がエラーログデータ(眼科測定情報)を作成する。エラーログデータは、本実施例では、眼科装置本体10のモダリティ、測定モード、エラーコード、測定パラメータや制御パラメータ等からなる測定条件データ、前眼部画像E′等の画像、年齢、性別、人種、既往歴等の被検者データからなる状況データである。
In step S8, the
次のステップS9で、エラー処理部43が、作成したエラーログデータをエラーログデータ記憶部61に記憶するとともに、入出力制御部41に出力する。入出力制御部41は、所定のタイミングで、エラーログデータをクラウドサーバ3に送信し、ステップS10に進む。
In the next step S9, the
そして、ステップS10で1回目の測定か否かを判定し、YES(1回目の測定)と判定された場合は、ステップS11へ進む。 Then, it is determined in step S10 whether or not it is the first measurement, and if YES (first measurement) is determined, the process proceeds to step S11.
ステップS11では、所定の測定シーケンスでは眼特性を測定できない状況を回避するべく、入出力制御部41が、エラーログデータ(眼科測定情報)人工知能エンジン51に入力する。次のステップS12で人工知能エンジン51が、エラーログデータを解析し、その状況を回避する可能性の高いエラー回避測定モード、エラー回避測定パラメータ、エラー回避制御パラメータ等のエラー回避情報を抽出する。抽出されたエラー回避情報は、エラー回避処理部52によって測定シーケンス制御部42へ出力される。
In step S11, the input /
このエラー回避情報を受け付けた測定シーケンス制御部42は、ステップS13でエラー回避測定モード、エラー回避測定パラメータ、エラー回避制御パラメータに基づいて、眼特性測定部16の初期設定を行う。その後、ステップS4に戻り、初期設定に基づいて、ステップS4のアライメント、ステップS5の眼特性測定を実行する。眼特性を適切に測定できた場合は(ステップS6の判定がYES)、測定条件データの取得を終了して(ステップS8)、測定処理を終了する。このように、エラー回避情報の抽出によって、眼特性を適切に測定することができ、眼科装置本体10の測定性能を向上させることができる。
The measurement
なお、このようにエラー回避情報によって適切に測定ができた場合、エラー回避情報やその際の眼科測定情報等をクラウドサーバ3へ送信してもよい。これにより、クラウドサーバ3で、回避策での成功例の事例を収集することができ、学習性能をより向上させることができる。
If the error avoidance information can be used for appropriate measurement, the error avoidance information, the ophthalmologic measurement information at that time, and the like may be transmitted to the
一方、エラー回避情報を用いても、眼特性を適切に測定できなかった場合(ステップS6の判定がNO)、ステップS8のエラーログデータの作成と、ステップS9のエラーログデータの記憶、クラウドサーバ3への送信を実行する。この記憶と送信の際に、エラー回避情報を用いた2回目の測定でも眼特性を測定できない状況のエラーログデータであるという情報を付加してもよい。これにより、クラウドサーバ3での学習の幅を拡げることができ、学習性能を向上させることができる。
On the other hand, if the eye characteristics cannot be measured appropriately even if the error avoidance information is used (the determination in step S6 is NO), the error log data in step S8 is created, the error log data in step S9 is stored, and the cloud server. Execute transmission to 3. At the time of this storage and transmission, information that the error log data is in a situation where the eye characteristics cannot be measured even in the second measurement using the error avoidance information may be added. As a result, the range of learning on the
その後、ステップS10へ進むことで、1回目の測定か否かが判定される。今回の測定は2回目であるため、ステップS10ではNOと判定され、ステップS7に進み、測定条件データの取得を終了し、測定処理を終了する。 After that, by proceeding to step S10, it is determined whether or not the measurement is the first time. Since this measurement is the second time, it is determined as NO in step S10, the process proceeds to step S7, the acquisition of the measurement condition data is completed, and the measurement process is completed.
次に、クラウドサーバ3で行われる眼科測定学習処理の一例を、図6A〜図6Dのフローチャートを用いて説明する。図6Aに示すように、クラウドサーバ3では、ステップS20のデータ蓄積処理、ステップS30の学習処理、ステップS40の人工知能エンジン配信処理が、クラウドサーバ3が起動している間に、それぞれ独立して所定条件で繰り返し実行される。
Next, an example of the ophthalmologic measurement learning process performed by the
ステップS20のデータ蓄積処理について、図6Bのフローチャートを用いて説明する。データ蓄積処理は、眼科装置本体10からエラーログデータを受信したタイミングで実行される。この図6Bに示すように、クラウドサーバ3では、ステップS21で、眼科装置本体10から送信されたエラーログデータを受信する。次に、ステップS22で、受信したエラーログデータを、項目ごとに分離する。項目としては、実施例1では、眼科装置本体10のモダリティ、測定モード、エラーコード、測定条件データの測定パラメータや制御パラメータ、状況データの前眼部画像E′や被検者データ等が挙げられる。
The data storage process in step S20 will be described with reference to the flowchart of FIG. 6B. The data storage process is executed at the timing when the error log data is received from the ophthalmic apparatus
クラウドサーバ3は、分離したデータを、例えばモダリティ別にデータ蓄積部7に記憶する(ステップS23)。
The
次に、ステップS30の学習処理について、図6Cのフローチャートを用いて説明する。学習処理は、データ蓄積部7に所定量のデータが蓄積したとき、例えば、所定期間ごとに実行される。また、学習処理は、モダリティをキーとして、眼科装置本体10の機種ごとにそれぞれ実行して、同機種の複数の眼科装置本体10で学習結果を共有することができる。
Next, the learning process of step S30 will be described with reference to the flowchart of FIG. 6C. The learning process is executed, for example, every predetermined period when a predetermined amount of data is accumulated in the data storage unit 7. Further, the learning process can be executed for each model of the ophthalmic apparatus
まず、ステップS31で、データ蓄積部7から、所定期間に蓄積されたエラーログデータを取得する。取得したエラーログデータを、人工知能エンジンである学習部6に入力することで(ステップS32)、人工知能による学習が実行される(ステップS33)。
First, in step S31, the error log data accumulated in a predetermined period is acquired from the data storage unit 7. By inputting the acquired error log data to the
学習部6では、例えば、ディープラーニングアルゴリズムを利用して、測定できない状況に対する回避策(エラー回避情報)を生成する。図7に、ニューラルネットワークを応用して学習された人工知能エンジンの構成例を示す。この図7に示すように、人工知能は、入力データに基づいて、学習によってノードを接続し、その接続強度を変化させてノード数を最適化し、最終的に、エラー回避測定モード、エラー回避測定パラメータ、エラー回避制御パラメータ等のエラー回避情報(学習測定条件データ)を出力する。
The
なお、人工知能による学習法が、実施例1の学習法に限定されることはなく、エキスパートシステム、事例ベース推論、ベイジアンネットワーク等の機械学習法、ファジー理論、進化的計算等、いずれのものを用いてもよい。 The learning method by artificial intelligence is not limited to the learning method of Example 1, and any of expert systems, case-based reasoning, machine learning methods such as Bayesian networks, fuzzy theory, evolutionary computation, etc. can be used. You may use it.
次に、ステップS34に進み、所定の機能が発揮されたかを判定する。所定の性能の発揮とは、ここでは学習が進んで眼特性を適切に測定できない状況を回避する回避策(エラー回避情報)が、ある程度取得できたことを意味する。 Next, the process proceeds to step S34, and it is determined whether or not the predetermined function has been exhibited. Exercising a predetermined performance means that a workaround (error avoidance information) for avoiding a situation in which learning progresses and the eye characteristics cannot be measured appropriately has been acquired to some extent.
このステップS34で、YESと判定された場合は、十分に学習がされたとしてステップS35に進む。これに対して、NOと判定された場合は、学習が不十分であるとして、ステップS33に戻って人工知能による学習を続行する。 If YES is determined in step S34, it is assumed that sufficient learning has been performed, and the process proceeds to step S35. On the other hand, if it is determined as NO, it is considered that the learning is insufficient, and the process returns to step S33 to continue the learning by the artificial intelligence.
このステップS34の判定は、人工知能がシミュレーション等により自動で判定することもできる。または、眼科装置本体10の開発業者等が、人工知能での学習結果を用いて実機で試験を実施し、適切に測定できたとき、或いは成功率が所定以上となったときに、機能が発揮された旨の入力をクラウドサーバ3に対して行うこともできる。この入力を受けたときに、クラウドサーバ3がステップS34の判定をYESと判定し、ステップS35に進むようにすることができる。
The determination in step S34 can also be automatically determined by artificial intelligence by simulation or the like. Alternatively, the function is exhibited when the developer of the ophthalmic apparatus
ステップS35では、このように十分な学習がなされた人工知能エンジンを、最新バージョンの人工知能エンジンとして、人工知能エンジン記憶部8に記憶する。
In step S35, the artificial intelligence engine thus sufficiently learned is stored in the artificial intelligence
最後に、ステップS40の人工知能エンジン配信処理について、図6Dのフローチャートを用いて説明する。クラウドサーバ3には、通信ネットワーク1を介して、複数の眼科装置本体10から人工知能エンジンの更新要求が送信される。図6Dに示すように、ステップS41で、クラウドサーバ3が、この人工知能エンジンの更新要求を受信すると、ステップS42で、モダリティ等をキーとして、各眼科装置本体10に対応する最新の人工知能エンジンを人工知能エンジン記憶部8から取得する。そして、ステップS43で、取得した各人工知能エンジンを、要求元の眼科装置本体10へそれぞれ配信する。これにより、各眼科装置本体10では、最新の人工知能エンジンを利用することができ、眼特性を自動で測定できる可能性が拡がり、測定性能を向上させることができる。なお、配信した人工知能エンジンのバージョンを管理しておき、前回の更新要求時から人工知能エンジンがアップデートされていない場合には、その旨を返信して人工知能エンジンを配信しない構成とすることもできる。または、バージョンの管理を省いて、更新要求のたびに、自動的に人工知能エンジン記憶部8の人工知能エンジンを眼科装置本体10に配信する構成とすることもできる。
Finally, the artificial intelligence engine distribution process in step S40 will be described with reference to the flowchart of FIG. 6D. The update request of the artificial intelligence engine is transmitted from the plurality of ophthalmic apparatus
以上のように、実施例1の眼科装置100では、眼特性測定部16で予め定められた測定シーケンスでは眼特性が適切に測定できない状況となったときに、その状況データ及び測定条件データからなるエラーログデータ(眼科測定情報)を記憶して蓄積し、人工知能である学習部6で回避策(学習測定条件)を学習させる。学習された回避策(学習測定条件)は、眼科装置本体10へ反映される。このため、眼科装置本体10は、所定の測定シーケンスで眼特性を適切に測定ができない状況であっても、学習された回避策の中から、その状況に対応した回避策を抽出することで、適切に測定できる可能性を拡げることができる。そのため、自動で被検眼Eの眼特性を測定できる状況を拡げることができ、眼科装置100の測定性能を向上させることができる。
As described above, the
また、実施例1の眼科装置100では、眼科装置本体10を複数備え、これらと学習部6を通信ネットワーク1で接続している。さらに実施例1では、学習部6をクラウドサーバ3に設けている。そして、学習部6は、複数の眼科装置本体10からのエラーログデータに基づいて学習し、エラー回避情報を生成している。そのため、各眼科装置本体10で、所定の測定シーケンスでは測定できない様々な状況に対する学習結果を共有することができ、学習性能を向上させることができる。また、クラウドサーバ3でより多くのエラーログデータを収集することができるため、学習部6での学習性能を高めることができる。そのため、各眼科装置本体10での被検眼Eの眼特定を自動で測定できる状況を拡げ、測定性能をより向上させることができる。
Further, the
また、同機種の複数の眼科装置本体10で学習結果を共有することができるため、例えば、高齢者の眼特性の測定を主に行う眼科装置本体10と、子供の眼特性を主に行う眼科装置本体10でのエラーログデータを収集して人工知能エンジンを生成することができる。この人工知能エンジンを各眼科装置本体10に配信することで、各眼科装置本体10でのエラー経験とその回避策を共有することができ、いずれの眼特性を眼科装置本体10で、いずれの被検眼Eの眼特性を測定する場合でも、様々な状況に対応するエラー回避情報に基づいて測定することで、自動で測定することができる可能性を拡げることができ、測定性能を向上させることができる。
Further, since the learning results can be shared by a plurality of
また、実施例1の眼科装置100では、測定条件データとして、被検眼Eに対して眼特性測定部16を移動させるときの移動速度、移動座標等の制御パラメータと、眼特性測定部16が眼特性を測定するときの焦点距離、ゲイン、計測位置、露光量等の測定パラメータのいずれかを含めている。学習部6では、これらの測定条件データに基づいて、状況に応じて測定できる可能性の高いエラー回避制御パラメータ、エラー回避測定パラメータを生成して、各眼科装置本体10に返すことができる。そのため、各眼科装置本体10で、眼特性を測定できない状況となったときに、これらのパラメータを設定して測定を行うことで、自動で測定することができる可能性を拡げることができるとともに、自動測定をより迅速に行うことができる。
Further, in the
また、実施例1の眼科装置100は、被検眼Eの状況(状況データ)に前眼部の露出度合や、被検眼Eの眼特性を含めている。このため、眼科装置本体10は、例えば瞼や睫毛が前眼部(角膜Ec)に掛かっていて露出度合が低い状況や、被検眼Eが円錐角膜となっている状況や角膜頂点が荒れている状況でも、エラー回避情報に基づいて測定することで、自動で測定することができる可能性を拡げることができる。
Further, the
以上、本願の眼科装置及びを実施例1に基づき説明してきたが、具体的な構成については実施例1に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。 Although the ophthalmic apparatus and the present application have been described above based on the first embodiment, the specific configuration is not limited to the first embodiment and does not deviate from the gist of the invention according to each claim. As long as the design is changed or added, it is permissible.
例えば、実施例1では、眼特性測定部16として、観察系21と視標投影系22と眼屈折力測定系23と自覚式検査系24とケラト系27とが設けられている。しかしながら、眼特性測定部16は、自動で被検眼Eに対するアライメントを行った後に、自動で被検眼Eの眼特性を測定できるものであればよく、実施例1の構成に限定されない。
For example, in the first embodiment, the
また、実施例1では、予め定められた測定シーケンスに従ってアライメントや眼特性の測定をまずは実行し、測定できない場合に人工知能エンジンによって回避策を抽出し、その回避策に基づいて再度アライメントや眼特性の測定を実行している。しかしながら、本願がこれに限定されることはなく、入力された被検者データや撮影された前眼部画像E′等の状況データを予め分析して、適切な測定ができるか否かを判断し、測定できない状況であると判断した場合に、人工知能エンジンによって回避策を抽出し、測定を実行するような構成とすることもできる。そのため、自動測定に要する時間を短縮することができる。これは、状況に拘わらず所定の測定シーケンスで測定を行い、それでは測定が出来ない場合に回避策を抽出して測定を行う場合と比較すると、無駄に測定することを防止できることによる。 Further, in the first embodiment, alignment and eye characteristics are first measured according to a predetermined measurement sequence, and if measurement is not possible, a workaround is extracted by an artificial intelligence engine, and alignment and eye characteristics are again based on the workaround. Are performing measurements. However, the present application is not limited to this, and it is determined in advance whether or not appropriate measurement can be performed by analyzing the input subject data and the situation data such as the photographed anterior segment image E'in advance. However, if it is determined that the situation cannot be measured, a workaround can be extracted by the artificial intelligence engine and the measurement can be performed. Therefore, the time required for automatic measurement can be shortened. This is because it is possible to prevent unnecessary measurement as compared with the case where the measurement is performed in a predetermined measurement sequence regardless of the situation and the workaround is extracted and the measurement is performed when the measurement cannot be performed by the measurement.
また、ユーザインタフェース部30として、スピーカ等を設け、回避策として、瞬きを我慢する旨や、瞼を開けるタイミングを音声によって被検者に知らせることもできる。これにより、例えば瞼や睫毛が前眼部に掛かって測定できない状況や、瞬きによって測定できない状況を回避することができる。
Further, a speaker or the like may be provided as the
6 学習部 10 眼科装置本体 16 眼特性測定部 17 測定条件取得部
40 制御部 50 データ処理部(制御部) 100 眼科装置
6
Claims (5)
前記眼特性測定部で測定を行ったときの測定条件を取得する測定条件取得部と、
予め定められた測定手順が記憶されている記憶部と、
前記記憶部から取得した所定の前記測定手順に沿って前記眼特性測定部を制御する制御部と、
前記測定手順では眼特性の測定が行えない状況での前記測定条件、前記被検眼の状況に関する状況データ、及び眼科装置本体のモダリティに基づいて、測定が行えない状況を回避する学習測定手順及び学習測定条件を生成する学習部と、を備え、
前記制御部は、前記学習部によって生成された前記学習測定手順を、前記測定手順として前記記憶部に記憶するとともに、前記学習部によって生成された前記学習測定条件から当該学習測定手順に対応する前記学習測定条件を抽出し、前記学習測定手順に沿って、抽出した前記学習測定条件に基づいて前記眼特性測定部を制御して、前記被検眼の眼特性の測定を行うことを特徴とする眼科装置。 An eye characteristic measurement unit that measures the eye characteristics of the eye to be inspected,
A measurement condition acquisition unit that acquires measurement conditions when measurement is performed by the eye characteristic measurement unit, and a measurement condition acquisition unit.
A storage unit that stores a predetermined measurement procedure and
A control unit that controls the eye characteristic measurement unit according to a predetermined measurement procedure acquired from the storage unit, and a control unit.
Learning measurement procedure and learning to avoid the situation where measurement cannot be performed based on the measurement conditions in the situation where the measurement of eye characteristics cannot be performed by the measurement procedure, the situation data regarding the situation of the eye to be inspected, and the modality of the ophthalmic apparatus main body. Equipped with a learning unit that generates measurement conditions,
The control unit stores the learning measurement procedure generated by the learning unit in the storage unit as the measurement procedure, and corresponds to the learning measurement procedure from the learning measurement conditions generated by the learning unit. An ophthalmologist who extracts learning measurement conditions and controls the eye characteristic measurement unit based on the extracted learning measurement conditions in accordance with the learning measurement procedure to measure the eye characteristics of the eye to be inspected. Device.
各眼科装置本体と、前記サーバとが通信ネットワークを介して互いに接続され、
各眼科装置本体は、前記測定手順では眼特性の測定が行えない状況での当該測定手順、前記測定条件及びモダリティを、前記通信ネットワークを介して前記サーバへ送信し、
前記サーバは、前記モダリティをキーとして、前記通信ネットワークを介して前記眼科装置本体又は外部機器から前記状況データを取得し、取得した前記状況データ及び複数の前記眼科装置本体の前記測定条件取得部から受信した前記測定手順及び前記測定条件を、前記モダリティと紐づけて前記第2の記憶部に記憶し、
前記学習部は、前記モダリティをキーとして前記第2の記憶部から前記測定手順、前記測定条件及び前記状況データを取得し、前記モダリティごとに前記学習測定手順及び前記学習測定条件を生成し、生成された前記学習測定手順及び前記学習測定条件を、前記通信ネットワークを介して各眼科装置本体へ送信することを特徴とする請求項1に記載の眼科装置。 The eye characteristic measurement unit, the measurement condition acquisition unit, the control unit, a plurality of ophthalmic apparatus main bodies having the storage unit, the learning unit, the measurement procedure, the measurement conditions, and the situation data. A server having a second storage unit associated with the modality and stored is provided.
The main body of each ophthalmic device and the server are connected to each other via a communication network.
Each ophthalmic apparatus main body transmits the measurement procedure, the measurement conditions, and the modality in a situation where the eye characteristics cannot be measured by the measurement procedure to the server via the communication network.
Using the modality as a key, the server acquires the status data from the ophthalmic apparatus main body or an external device via the communication network, and from the acquired status data and the measurement condition acquisition unit of the plurality of ophthalmic apparatus main bodies. The received measurement procedure and the measurement condition are stored in the second storage unit in association with the modality.
The learning unit acquires the measurement procedure, the measurement condition, and the situation data from the second storage unit using the modality as a key, and generates and generates the learning measurement procedure and the learning measurement condition for each modality. The ophthalmic apparatus according to claim 1, wherein the learning measurement procedure and the learning measurement conditions are transmitted to each ophthalmic apparatus main body via the communication network.
記憶部に記憶されている予め定められた測定手順に沿って被検眼の眼特性を測定する工程と、
前記眼特性を測定するときの測定条件を取得する工程と、
前記被検眼の状況に関する状況データ、及び前記眼科装置本体のモダリティを取得する工程と、
眼特性の測定が行えない状況での前記測定条件、前記状況データ、及び前記モダリティに基づいて、測定が行えない状況を回避する学習測定手順及び学習測定条件を生成する工程と、
前記学習測定手順及び前記学習測定条件を生成する工程で生成された前記学習測定手順を、前記測定手順として前記記憶部に記憶するとともに、生成された前記学習測定条件から当該学習測定手順に対応する前記学習測定条件を抽出し、前記学習測定手順に沿って、抽出した前記学習測定条件に基づいて前記被検眼の眼特性を測定する工程と、を有することを特徴とする眼科測定方法。 A method for measuring ophthalmology performed by the ophthalmic apparatus according to any one of claims 1 to 4.
The process of measuring the ocular characteristics of the eye to be inspected according to a predetermined measurement procedure stored in the storage unit, and
The process of acquiring the measurement conditions for measuring the eye characteristics and
The process of acquiring the status data regarding the status of the eye to be inspected and the modality of the ophthalmic apparatus main body, and
Based on the measurement conditions, the situation data, and the modality in the situation where the eye characteristics cannot be measured, the learning measurement procedure and the step of generating the learning measurement conditions for avoiding the situation where the measurement cannot be performed, and
The learning measurement procedure and the learning measurement procedure generated in the step of generating the learning measurement condition are stored in the storage unit as the measurement procedure, and the generated learning measurement condition corresponds to the learning measurement procedure. A method for measuring an ophthalmology, which comprises a step of extracting the learning measurement conditions and measuring the eye characteristics of the eye to be inspected based on the extracted learning measurement conditions according to the learning measurement procedure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021167694A JP7252296B2 (en) | 2020-12-09 | 2021-10-12 | Ophthalmic device and ophthalmic measurement method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020203811A JP6961065B2 (en) | 2017-02-14 | 2020-12-09 | Ophthalmic equipment and ophthalmic measurement method |
JP2021167694A JP7252296B2 (en) | 2020-12-09 | 2021-10-12 | Ophthalmic device and ophthalmic measurement method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020203811A Division JP6961065B2 (en) | 2017-02-14 | 2020-12-09 | Ophthalmic equipment and ophthalmic measurement method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022001309A true JP2022001309A (en) | 2022-01-06 |
JP7252296B2 JP7252296B2 (en) | 2023-04-04 |
Family
ID=79244688
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021167694A Active JP7252296B2 (en) | 2020-12-09 | 2021-10-12 | Ophthalmic device and ophthalmic measurement method |
JP2021167605A Active JP7252295B2 (en) | 2020-12-09 | 2021-10-12 | Ophthalmic device and ophthalmic measurement method |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021167605A Active JP7252295B2 (en) | 2020-12-09 | 2021-10-12 | Ophthalmic device and ophthalmic measurement method |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7252296B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03202042A (en) * | 1989-12-29 | 1991-09-03 | Topcon Corp | Visual field measuring device |
JPH0666852A (en) * | 1992-04-22 | 1994-03-11 | Nec Corp | Spectrum measuring device |
JP2002306417A (en) * | 2001-02-09 | 2002-10-22 | Topcon Corp | Eye characteristics measuring instrument |
JP2004037941A (en) * | 2002-07-04 | 2004-02-05 | Ricoh Co Ltd | Image forming apparatus management system |
JP2005168856A (en) * | 2003-12-12 | 2005-06-30 | National Institute Of Advanced Industrial & Technology | Instrument and method for measuring fatigue degree |
WO2008120552A1 (en) * | 2007-03-29 | 2008-10-09 | Nec Corporation | Diagnostic system |
US20150338915A1 (en) * | 2014-05-09 | 2015-11-26 | Eyefluence, Inc. | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
-
2021
- 2021-10-12 JP JP2021167694A patent/JP7252296B2/en active Active
- 2021-10-12 JP JP2021167605A patent/JP7252295B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03202042A (en) * | 1989-12-29 | 1991-09-03 | Topcon Corp | Visual field measuring device |
JPH0666852A (en) * | 1992-04-22 | 1994-03-11 | Nec Corp | Spectrum measuring device |
JP2002306417A (en) * | 2001-02-09 | 2002-10-22 | Topcon Corp | Eye characteristics measuring instrument |
JP2004037941A (en) * | 2002-07-04 | 2004-02-05 | Ricoh Co Ltd | Image forming apparatus management system |
JP2005168856A (en) * | 2003-12-12 | 2005-06-30 | National Institute Of Advanced Industrial & Technology | Instrument and method for measuring fatigue degree |
WO2008120552A1 (en) * | 2007-03-29 | 2008-10-09 | Nec Corporation | Diagnostic system |
US20150338915A1 (en) * | 2014-05-09 | 2015-11-26 | Eyefluence, Inc. | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
Also Published As
Publication number | Publication date |
---|---|
JP7252296B2 (en) | 2023-04-04 |
JP7252295B2 (en) | 2023-04-04 |
JP2022001308A (en) | 2022-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6900647B2 (en) | Ophthalmic device and IOL power determination program | |
JP5511516B2 (en) | Ophthalmic equipment | |
WO2018021561A1 (en) | Ophthalmologic device and iol power determination program | |
JP6098061B2 (en) | Fundus photographing device | |
JP5224878B2 (en) | Ophthalmic equipment | |
JP7106728B2 (en) | ophthalmic equipment | |
US11013400B2 (en) | Ophthalmic apparatus | |
JP2017158728A (en) | Ophthalmologic apparatus | |
JP6808527B2 (en) | Ophthalmic equipment and ophthalmic measurement method | |
JP2013135837A (en) | Ophthalmic apparatus and ophthalmic program | |
JP6723843B2 (en) | Ophthalmic equipment | |
JP6764805B2 (en) | Ophthalmic equipment | |
JP2019208852A (en) | Ophthalmologic image processing apparatus and ophthalmologic image processing program | |
JP6499884B2 (en) | Ophthalmic equipment | |
JP2003225205A (en) | Fully corrected vision characteristics measuring apparatus and method, contrast sensitivity measuring apparatus and method and contrast sensitivity target presentation device | |
JP6892540B2 (en) | Ophthalmic equipment | |
JP5570673B2 (en) | Ophthalmic equipment | |
JP6961065B2 (en) | Ophthalmic equipment and ophthalmic measurement method | |
KR20220039769A (en) | Co-determination of Accommodation and Bilateral Accommodation | |
JP7252296B2 (en) | Ophthalmic device and ophthalmic measurement method | |
JP2018094322A (en) | Ophthalmologic apparatus | |
US7341346B2 (en) | Ocular accommodative function examination apparatus | |
JP5784056B2 (en) | Ophthalmic apparatus and method for controlling ophthalmic apparatus | |
WO2016129499A1 (en) | Ocular refractivity measuring device | |
JP2018117692A (en) | Ophthalmologic apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211013 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230323 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7252296 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |