JP2015066046A - 眼鏡装用画像解析装置、眼鏡装用画像解析プログラム - Google Patents
眼鏡装用画像解析装置、眼鏡装用画像解析プログラム Download PDFInfo
- Publication number
- JP2015066046A JP2015066046A JP2013201225A JP2013201225A JP2015066046A JP 2015066046 A JP2015066046 A JP 2015066046A JP 2013201225 A JP2013201225 A JP 2013201225A JP 2013201225 A JP2013201225 A JP 2013201225A JP 2015066046 A JP2015066046 A JP 2015066046A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- wearing
- spectacle
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Eyeglasses (AREA)
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
Abstract
【課題】 好適にフレーム検出を行う。
【解決手段】 眼鏡パラメータを測定するために眼鏡を装用した被検者の画像を撮影し、撮影された被検眼の画像の解析を行う眼鏡装用画像解析装置であって、撮影手段からの撮像信号に基づいて取得された第1画像であり、眼鏡フレームを含む被検者の第1画像から画像処理によってフレーム部位を除去することによって、フレーム部位が除去された第2画像を取得する画像除去手段と、第1画像と第2画像とを合成処理することによって、第3画像を取得する画像合成手段と、を有し、第3画像よりフレーム部位を抽出する画像処理手段を備える。
【選択図】 図1
【解決手段】 眼鏡パラメータを測定するために眼鏡を装用した被検者の画像を撮影し、撮影された被検眼の画像の解析を行う眼鏡装用画像解析装置であって、撮影手段からの撮像信号に基づいて取得された第1画像であり、眼鏡フレームを含む被検者の第1画像から画像処理によってフレーム部位を除去することによって、フレーム部位が除去された第2画像を取得する画像除去手段と、第1画像と第2画像とを合成処理することによって、第3画像を取得する画像合成手段と、を有し、第3画像よりフレーム部位を抽出する画像処理手段を備える。
【選択図】 図1
Description
本発明は、眼鏡を製作するために必要な眼鏡パラメータを測定するために、撮影画像の解析を行う眼鏡装用画像解析装置及び眼鏡装用画像解析プログラムに関する。
眼鏡フレームを装用した状態の被検者の顔を撮像装置によって撮影し、その撮影画像から眼鏡フレームに対する眼の位置(アイポジション)を算出する眼鏡装用画像解析装置が提案されている(特許文献1参照)。
従来の装置では、アタッチメントやシール等が眼鏡フレーム取り付けられ、撮影された撮影画像では、それらを目印として眼鏡フレームの位置を検出し、眼鏡パラメータを測定していた(特許文献2参照)。また、アタッチメントやシール等を眼鏡フレームに取り付けること無く、撮影を行った場合、撮影画像より眼鏡フレームのエッジを検出することによって、眼鏡フレームを検出していた。
しかしながら、アタッチメントやシール等を用いる場合には、眼鏡フレームにそれらを装着する必要がある。また、アタッチメントやシール等の構成を、別途、用意する必要がある。これらは、検者にとって手間であった。
また、アタッチメントやシール等を使用しない場合には、眼鏡フレームの検出の際に、眼鏡フレームのエッジの他に、眉毛又は目のエッジが検出されてしまい、眼鏡フレームのみを適切に検出することができないことがあった。
本発明は、上記問題点を鑑み、好適にフレーム検出を行うことのできる眼鏡装用画像解析眼鏡装置及び眼鏡装用画像解析プログラムを提供することを技術課題とする。
(1) 本発明の第一態様に係る眼鏡装用画像解析装置は、眼鏡パラメータを測定するために眼鏡を装用した被検者の画像を撮影し、撮影された前記被検眼の画像の解析を行う眼鏡装用画像解析装置であって、撮影手段からの撮像信号に基づいて取得された第1画像であり、眼鏡フレームを含む被検者の前記第1画像から画像処理によってフレーム部位を除去することによって、前記フレーム部位が除去された第2画像を取得する画像除去手段と、前記第1画像と前記第2画像とを合成処理することによって、第3画像を取得する画像合成手段と、を有し、前記第3画像より前記フレーム部位を抽出する画像処理手段を備えることを特徴とする。
(2) 本発明の第二態様に係る眼鏡装用画像解析プログラムは、眼鏡を装用した被検者の画像を撮影し、撮影された前記被検眼の画像に基づいて、眼鏡パラメータを測定する眼鏡装用画像解析装置の動作を制御する制御装置において実行される眼鏡装用画像解析プログラムであって、前記制御装置のプロセッサによって実行されることで、撮影手段からの撮像信号に基づいて取得された第1画像であり、眼鏡フレームを含む被検者の前記第1画像から画像処理によってフレーム部位を除去することによって、前記フレーム部位が除去された第2画像を取得する第2画像取得ステップと、前記第1画像と前記第2画像とを合成処理することによって第3画像を取得する第3画像取得ステップと、前記3画像よりフレーム部位を抽出するフレーム抽出ステップと、を前記制御装置に実行させることを特徴とする。
(2) 本発明の第二態様に係る眼鏡装用画像解析プログラムは、眼鏡を装用した被検者の画像を撮影し、撮影された前記被検眼の画像に基づいて、眼鏡パラメータを測定する眼鏡装用画像解析装置の動作を制御する制御装置において実行される眼鏡装用画像解析プログラムであって、前記制御装置のプロセッサによって実行されることで、撮影手段からの撮像信号に基づいて取得された第1画像であり、眼鏡フレームを含む被検者の前記第1画像から画像処理によってフレーム部位を除去することによって、前記フレーム部位が除去された第2画像を取得する第2画像取得ステップと、前記第1画像と前記第2画像とを合成処理することによって第3画像を取得する第3画像取得ステップと、前記3画像よりフレーム部位を抽出するフレーム抽出ステップと、を前記制御装置に実行させることを特徴とする。
本発明によれば、好適にフレーム検出を行うことができる。
以下、本実施形態を図面に基づいて説明する。図1〜図10は本実施形態に係る眼鏡装用画像解析装置の構成について説明する図である。なお、以下の説明において、被検者の左右方向をX軸方向、被検者の上下方向をY軸方向、被検者の前後方向をZ軸方向として説明する。
<概要>
本発明の実施形態に係る眼鏡装用画像解析装置1の概要について説明する。本実施形態に関わる眼鏡装用画像解析装置1は、眼鏡パラメータを測定するために眼鏡を装用した被検者の画像を撮影し、撮影された前記被検眼の画像の解析を行う。
本発明の実施形態に係る眼鏡装用画像解析装置1の概要について説明する。本実施形態に関わる眼鏡装用画像解析装置1は、眼鏡パラメータを測定するために眼鏡を装用した被検者の画像を撮影し、撮影された前記被検眼の画像の解析を行う。
例えば、眼鏡装用画像解析装置1は、画像除去手段と、画像合成手段と、画像処理手段と、を備える。例えば、本実施形態において、画像除去手段と、画像合成手段と、画像処理手段は、兼用される。もちろん、画像除去手段と、画像合成手段と、画像処理手段は、個別に設けられる構成としてもよい。また、例えば、画像除去手段と、画像合成手段と、画像処理手段の内のいずれかが兼用される構成してもよい。
例えば、画像除去手段(制御部70)は、撮影手段からの撮像信号に基づいて取得された第1画像であり、眼鏡フレームを含む被検者の第1画像から画像処理によってフレーム部位を除去することによって、フレーム部位が除去された第2画像を取得する。例えば、フレーム部位を除去する画像処理としては、クロージング処理やオープニング処理等が挙げられる。なお、画像除去手段は、第1画像の全体に対して除去処理を施しても良いし、第1画像の一部(例えば、フレーム部分のみ)に対して除去処理を施しても良い。なお、フレームの除去とは、完全にフレーム除去する構成に限定されない。例えば、フレーム部位が軽減(減少)するようなフレーム除去の構成であってもよい。
例えば、画像合成手段(制御部70)は、第1画像と第2画像との合成による第3画像を取得する。例えば、合成処理としては、第1画像と第2画像とを用いることによって、フレーム部位が強調(抽出)された画像を取得できる合成処理であればよい。例えば、合成処理としては、第1画像の輝度値又は第2画像の輝度値の一方の輝度値から、他方の輝度値を差し引く画像処理が挙げられる。また、例えば、合成処理としては、第1画像と第2画像とを加算処理を行う画像処理が挙げられる。
例えば、画像処理手段(制御部70)は。第3画像よりフレーム部位を抽出する。そして、例えば、画像処理手段は、第3画像からフレーム部位を抽出した結果であるフレーム抽出結果と,第1画像から被検眼の瞳孔情報を抽出した瞳孔情報抽出結果と,に基づいて、眼鏡を製作するための眼鏡パラメータを測定(算出)する。例えば、眼鏡パラメータとしては、フィッティングポイント高さH、瞳孔間距離PD、フレーム幅TW、フレーム高さTH、フレームPD、遠用アイポイント、近用アイポイント等が挙げられる。もちろん、算出される眼鏡パラメータとしては、上記パラメータに限定されない。
なお、本実施形態において、フレーム部位を除去する画像処理として、クロージング処理(膨張処理及び縮小処理)を用いる場合において、例えば、画像除去手段は、膨張処理の処理回数及び縮小処理の処理回数の少なくとも一方の処理回数の設定の変更を可能とする構成としてもよい。
また、例えば、画像除去手段は、フレーム部位の除去処理において実行される、各画素単位に対して膨張処理を行う画像領域、又は各画素単位に対して縮小処理を行う画像領域の少なくとも一方の画像領域の設定の変更を可能とする構成としてもよい。画像領域の設定を変更する場合、画像除去手段は、例えば、画像上の一画素を中心として膨張又は縮小の画像処理を行う場合の画素領域のサイズを変更するようにしてもよい。
もちろん、画像除去手段は、膨張処理の処理回数及び縮小処理の処理回数の少なくとも一方の処理回数の設定の変更、及び、膨張処理を行う画像領域又は縮小処理を行う画像領域の少なくとも一方の画像領域の設定の変更、の両方の変更を可能とする構成としてもよい。
例えば、クロージング処理回数又は画像領域の少なくとも一方の変更は、フレーム情報に基づいて、変更が行われる構成又は、操作ユニット10の操作に基づいて、変更が行われる構成等が挙げられる。
例えば、フレーム情報に基づいて、クロージング処理回数又は画像領域の少なくとも一方の変更が行われる場合、眼鏡装用画像解析装置1は、さらに、フレームの情報を受信する受信手段(制御部70)を備える。例えば、画像除去手段は、受信手段によって受信したフレーム情報に基づいて、第2画像を取得するための、フレーム部位の除去処理において実行される、クロージング処理回数又は画像領域の少なくとも一方の変更が可能である。例えば、フレーム情報としては、フレームの種類(形状)や、フレームの厚み(領域)、フレームの材質等が挙げられる。このような構成を設けることによって、例えば、厚いフレームであっても、フレーム部位が確実に除去される。また、例えば、フレームが薄い場合に、必要以上に処理が行われてしまい、瞳孔や眉毛を除去してしまうことを防ぐことできる。なお、本実施形態において、受信手段としては、制御部70を用いる構成としたがこれに限定さない。別途、フレーム情報を受信するためのCPU等を設ける構成としてもよい。
なお、上記記載のクロージング処理において、画像領域、膨張処理の回数、縮小処理回数、の少なくとも一つの設定は、フレーム部位のみを除去し、眉毛部位又は被検眼の少なくとも一方を除去しないように設定されるようにしてもよい。このような設定を行うことによって、フレーム部位のみが除去されるようにすることが可能となる。
なお、本装置は、例えば、撮影部(例えば、遠用測定光学系200,近用測定光学系300)と、撮影部によって得られた画像を解析処理する解析デバイスを備える構成であってもよい。また、本装置は、例えば、外部に設けられた撮影部からの画像を取得し、得られた画像を解析処理する解析デバイスを備える構成であってもよい。
なお、本実施形態においては、上記実施形態に記載した装置に限定されない。例えば、上記実施形態の機能を行う眼科撮影ソフトウェア(プログラム)をネットワークや各種記憶媒体を介して、システムあるいは装置に供給する。そして、システムあるいは装置のコンピュータ(例えば、CPU等)がプログラムを読み出し、実行することも可能である。
<実施例>
図1は、本実施例に係る眼鏡装用画像解析装置1の外観の概略構成図である。図2は、本実施例に係る眼鏡装用画像解析装置1に収納される光学系の概略構成図である。以下、図1及び図2を参照して、本実施例に係る眼鏡装用画像解析装置1の構成について説明する。図1に示されるように、眼鏡装用画像解析装置の装置本体3の内部には、後述する種々の測定光学系、駆動系、制御系等が備わる。装置本体3の被検者側には呈示窓5が備わる。呈示窓6は、被検者に固視標を呈示する際に、固視光束を通過させる窓である。同じく装置本体3の被検者側には顔支持ユニット5が備わる。顔支持ユニット5は、被検者の顔を支持するためのユニットである。装置本体3の検者側には操作ユニット(操作部)10が備わる。
図1は、本実施例に係る眼鏡装用画像解析装置1の外観の概略構成図である。図2は、本実施例に係る眼鏡装用画像解析装置1に収納される光学系の概略構成図である。以下、図1及び図2を参照して、本実施例に係る眼鏡装用画像解析装置1の構成について説明する。図1に示されるように、眼鏡装用画像解析装置の装置本体3の内部には、後述する種々の測定光学系、駆動系、制御系等が備わる。装置本体3の被検者側には呈示窓5が備わる。呈示窓6は、被検者に固視標を呈示する際に、固視光束を通過させる窓である。同じく装置本体3の被検者側には顔支持ユニット5が備わる。顔支持ユニット5は、被検者の顔を支持するためのユニットである。装置本体3の検者側には操作ユニット(操作部)10が備わる。
<操作ユニット>
操作ユニット10は、入力された操作指示に応じた信号を後述する制御部70に出力する。本実施例における操作ユニット10は、タッチパネル式の表示部15が用いられる。すなわち、本実施例においては、操作ユニットと表示部が兼用される。もちろん、操作ユニットと表示部が別に設けられた構成であってもよい。例えば、操作ユニット10には、マウス、ジョイスティック、キーボード等の操作手段の少なくともいずれかを用いる構成が挙げられる。例えば、表示部15は、眼鏡装用パラメータ測定装置1の本体に搭載されたディスプレイであってもよいし、本体に接続されたディスプレイであってもよい。もちろん、タッチパネル式でなくともよい。例えば、パーソナルコンピュータ(以下、「PC」という。)のディスプレイを用いてもよい。また、例えば、複数のディスプレイが併用されてもよい。表示部15には、撮影された遠方視及び近方視状態の正面画像又は側方画像を含む各種画像が表示されてもよい。
操作ユニット10は、入力された操作指示に応じた信号を後述する制御部70に出力する。本実施例における操作ユニット10は、タッチパネル式の表示部15が用いられる。すなわち、本実施例においては、操作ユニットと表示部が兼用される。もちろん、操作ユニットと表示部が別に設けられた構成であってもよい。例えば、操作ユニット10には、マウス、ジョイスティック、キーボード等の操作手段の少なくともいずれかを用いる構成が挙げられる。例えば、表示部15は、眼鏡装用パラメータ測定装置1の本体に搭載されたディスプレイであってもよいし、本体に接続されたディスプレイであってもよい。もちろん、タッチパネル式でなくともよい。例えば、パーソナルコンピュータ(以下、「PC」という。)のディスプレイを用いてもよい。また、例えば、複数のディスプレイが併用されてもよい。表示部15には、撮影された遠方視及び近方視状態の正面画像又は側方画像を含む各種画像が表示されてもよい。
<顔支持ユニット>
顔支持ユニット5は、被検者の額を支持する。そして、顔支持ユニット5は、後述する測定光学系(例えば、遠用測定光学系200,近用測定光学系300,反射ミラー410等)と被検者との距離を一定にする。また、顔支持ユニット5は、被検者の左右方向に回転可能であり、被検者の顔の向きを調整することができる。これによって、被検者の顔の向きが左右方向のいずれかにずれている場合、被検者の顔が正面を向くように、顔支持ユニット5を回転させることができる。
顔支持ユニット5は、被検者の額を支持する。そして、顔支持ユニット5は、後述する測定光学系(例えば、遠用測定光学系200,近用測定光学系300,反射ミラー410等)と被検者との距離を一定にする。また、顔支持ユニット5は、被検者の左右方向に回転可能であり、被検者の顔の向きを調整することができる。これによって、被検者の顔の向きが左右方向のいずれかにずれている場合、被検者の顔が正面を向くように、顔支持ユニット5を回転させることができる。
顔支持ユニット5は、当節部31、作動距離調節部40、左右回転調節部50を主に備える。当接部31は、被検者の顔に接触する部分である。作動距離調節部40は、被検者と後述の測定光学系との距離を調節するために当接部31の位置をZ軸方向に調節する。例えば、本実施例において、検者によって作動距離調節部40の調節ノブ41が操作されることによって、当接部31のZ軸方向(作動距離方向)における位置が調節される。水平回旋調節部50は、被検者の顔が正面を向くように、当接部31の左右方向の角度を調節する。例えば、本実施例において、検者によって左右回転調整部50の調節ノブ51が操作されることによって、当接部31の左右方向の位置が調節される。
なお、顔支持ユニット5は本実施形態の構成に限定されない。本実施例においては、被検者の額を支持するものとして説明したが、被検者のあごでもよいし、頬、鼻などでもよい。被検者の顔を支持する構成であればよい。また、本実施例において、顔支持ユニット5は、検者が調節ノブ41,51を操作することによって、当接部31の位置が調節される構成としたがこれに限定されない。顔支持ユニット5は、モータ等の駆動部を有し、操作ユニット10の操作等によって、電動で当接部31の位置が調整される構成としてもよい。
<光学系>
次に、図2を参照して、本実施例に係る眼鏡装用画像解析装置1に収納される光学系について説明する。本実施例の眼鏡装用画像解析装置1は、照明光学系110、遠用測定光学系200、近用測定光学系300、光路切換ユニット400と、側方撮影光学系500、を主に備える。
次に、図2を参照して、本実施例に係る眼鏡装用画像解析装置1に収納される光学系について説明する。本実施例の眼鏡装用画像解析装置1は、照明光学系110、遠用測定光学系200、近用測定光学系300、光路切換ユニット400と、側方撮影光学系500、を主に備える。
本実施例において、眼鏡パラメータを測定するために眼鏡を装用した被検者の画像を撮影するための撮影手段を有する測定光学系として、少なくとも、遠用測定光学系200、近用測定光学系300のいずれかが用いられる。本実施例において、遠用測定光学系200、近用測定光学系300は、被検者の正面画像を撮影するために用いられる。また、側方撮影光学系500は、被検者の側方画像を撮影するために用いられる。
<照明光学系>
照明光学系110は、4つの光源110R,110L,111R,111L(図2では、110L、111Lを省略)を主に備える。照明光学系110は、光源110R,110L,111R,111Lによって、四方向から被検者の顔を照明する。もちろん、照明光学系100は上記の構成に限らない。光源の数はいくつでもよく、配置も任意でよい。照明光学系110は、光源によって被検者の顔を照明することができればよい。例えば、照明光学系110は、顔支持ユニット5の下部、呈示窓6の上部に設けられてもよい。
照明光学系110は、4つの光源110R,110L,111R,111L(図2では、110L、111Lを省略)を主に備える。照明光学系110は、光源110R,110L,111R,111Lによって、四方向から被検者の顔を照明する。もちろん、照明光学系100は上記の構成に限らない。光源の数はいくつでもよく、配置も任意でよい。照明光学系110は、光源によって被検者の顔を照明することができればよい。例えば、照明光学系110は、顔支持ユニット5の下部、呈示窓6の上部に設けられてもよい。
なお、本実施例の照明光学系110においては、赤外光源を用いる。赤外光源と、後述する赤外フィルタ等を用いることによって、外乱光(自然光など)の影響を抑えることができる。ただし、赤外光源でなくてもよく、可視光源を用いてもよい。
<遠用測定光学系>
図2に基づいて、遠用測定光学系(以下、第1測定光学系とも言う)200について説明する。遠用測定光学系200は、眼鏡フレームに対する遠方視状態における被検眼Eの眼位置を測定するための光学系である。遠用測定光学系200は、第1の固視標投影光学系200aと第1の撮像光学系200bに分けられる。なお、遠用測定光学系200の測定光軸を光軸L1とする。
図2に基づいて、遠用測定光学系(以下、第1測定光学系とも言う)200について説明する。遠用測定光学系200は、眼鏡フレームに対する遠方視状態における被検眼Eの眼位置を測定するための光学系である。遠用測定光学系200は、第1の固視標投影光学系200aと第1の撮像光学系200bに分けられる。なお、遠用測定光学系200の測定光軸を光軸L1とする。
固視標投影光学系200aは、被検者を遠方視状態に固視させるための遠用固視標を被検眼Eに投影する。固視標投影光学系200aは、光源220、ハーフミラー230、凹面ミラー240を主に備える。光源220は、被検眼Eに投影される固視標として機能する。凹面ミラー240は、光源220から出射される固視標光束を略平行光束にして反射する。
光源220からの出射された固視標光束は、ハーフミラー230によって反射され、光軸L1と同軸とされる。ハーフミラー230によって反射された固視標光束は、凹面ミラー240によって反射される。凹面ミラー240に反射された固視標光束は、後述する反射ミラー410によって反射され、呈示窓6を通過して被検眼Eに入射する。凹面ミラー240は、固視標光束を略平行光束にするように反射する。このため、被検者から見た固視標は、被検眼Eから光源220までの実際の距離よりも遠方にあるように見える。その後、固視標光束は、後述の反射ミラー410によって反射され、呈示窓6を通過して被検眼Eに入射する。
撮像光学系200bは、遠方視状態における被検者の顔を正面方向から撮影する。なお、被検者の顔とは、被検者の顔全体でなくてもよく、少なくとも被検眼Eの周辺領域(例えば、少なくとも左右眼及び眼鏡フレームを含む被検者の顔の正面画像であってもよい)を指す。撮像光学系200bは、撮像素子210、撮像レンズ212、絞り214、赤外フィルタ216、ハーフミラー230、凹面ミラー240を主に備える。
照明光学系110からの照明光は、被検者の顔によって反射されて、呈示窓6を通過する。呈示窓6を通過した照明光は、反射ミラー410によって反射される。反射ミラー410によって反射された反射光は、凹面ミラー240によって反射された後、ハーフミラー230を通り、赤外フィルタ216を通過する。赤外フィルタ216を通過した赤外光は、絞り214を通過し、撮像レンズ212によって収束された後、撮像素子210の上に像を結ぶ。撮像素子210は瞳と共役な位置関係にある。撮像素子210は、光を検出し、そのときの検出信号を制御部70に出力する。
<近用測定光学系>
近用測定光学系(以下、第2測定光学系とも言う)300は、近方視状態における被検眼Eの眼位置を測定するための光学系である。近用測定光学系300は、第2の固視標投影光学系300aと第2の撮像光学系300bに分けられる。
近用測定光学系(以下、第2測定光学系とも言う)300は、近方視状態における被検眼Eの眼位置を測定するための光学系である。近用測定光学系300は、第2の固視標投影光学系300aと第2の撮像光学系300bに分けられる。
固視標投影光学系300aは、被検者を近方視状態に固視させるための近用固視標を被検眼Eに投影する。固視標投影光学系300aは、光源320、ハーフミラー330、凸レンズ340を主に備える。光源320は、被検眼Eに投影される固視標として機能する。
光源320からの出射された固視標光束は、ハーフミラー330によって反射され、光軸L2と同軸とされる。ハーフミラー330によって反射された固視標光束は、凸レンズ340を通過し、収束される。その後、固視標光束は、後述の反射ミラー410によって反射され、呈示窓20を通過して被検眼Eに入射する。
撮像光学系300bは、近方視状態における被検者の顔を正面方向から撮影する。撮像光学系300bは、撮像素子310、撮像レンズ312、絞り314、赤外フィルタ316、ハーフミラー330、凸レンズ340を主に備える。
被検者の顔を照明する照明光学系110からの照明光は、呈示窓6を通過し、反射ミラー410によって反射される。反射ミラー410によって反射された反射光は凸レンズを通過し、収束される。収束されたこの光束は、ハーフミラー330を通り、赤外フィルタ316を通過する。赤外フィルタ316を通過した赤外光は、絞り314を通過し、撮像レンズ312によって収束された後、撮像素子310の上に像を結ぶ。撮像素子310は、瞳と共役な位置関係にある。撮像素子310は、光を検出し、そのときの検出信号を制御部70に出力する。
<光学系移動ユニット>
近用測定光学系300は、光学系移動ユニット350を備える。光学系移動ユニット350は、近用測定光学系300を移動可能に保持する。光学系移動ユニット350は、近用測定のときに、後述する反射ミラー410の角度の変更にともなって、近用測定光学系300の全体を移動させることができる。
近用測定光学系300は、光学系移動ユニット350を備える。光学系移動ユニット350は、近用測定光学系300を移動可能に保持する。光学系移動ユニット350は、近用測定のときに、後述する反射ミラー410の角度の変更にともなって、近用測定光学系300の全体を移動させることができる。
ところで、後述する光路切換ユニット400によって反射ミラー410の角度が変更されると、固視標投影光学系300aの光路(指標の呈示距離)、及び第2の撮像光学系300bの光路が変化してしまう。そこで、本実施形態の光学系移動ユニット350は、反射ミラー410の角度の変更にともなって、近用測定光学系300の全体を移動させる。これによって、反射ミラー410の角度が変更された場合であっても、近用視標の呈示距離が維持される。また、第2の撮像光学系300bの被検眼Eに対するフォーカス状態が維持される。
また、光学系移動ユニット350は、呈示距離を調節するための凸レンズ340と、固視標を投影するための光源320を別々に移動させることが可能である。これによって、光学系移動ユニット350は、凸レンズ340と光源320の相対的な距離を変化させ、固視標の呈示距離を変更することができる。なお、光学系移動ユニット350は、例えば、モータや等の図示無き駆動部を用いて、駆動部を駆動させることによって、光学部材を移動させる。
<光路切換ユニット>
図2に戻って、光路切換ユニット400について説明する。光路切換ユニットは、遠用測定用光学系200と、近用測定用光学系300の光路を切り換える。また、光路切り換えユニット400は、近用測定時における被検者の視線方向を変化させる。
<光路切換ユニット>
図2に戻って、光路切換ユニット400について説明する。光路切換ユニットは、遠用測定用光学系200と、近用測定用光学系300の光路を切り換える。また、光路切り換えユニット400は、近用測定時における被検者の視線方向を変化させる。
光路切換ユニット400は、反射ミラー410、ミラー保持部420、駆動部440を主に備える。
反射ミラー410は、ミラー保持部420に保持される。ミラー保持部420の上部は、装置に固定された回転シャフト425に保持される。ミラー保持部420は、回転シャフト425の回転軸を中心に回旋可能とされる。このとき、ミラー保持部420は、反射ミラー410と一体的に回旋される。反射ミラー410は、遠用測定光学系200または近用測定光学系300から出射される視標光束を被検眼Eに向けて反射させる。駆動部440は、図示無きリンク機構部によって、ミラー保持部420の裏面と連結される。駆動部440が駆動されることによって、駆動部の駆動力が図示無きリンク機構部を介して、ミラー保持部420に伝達される。ミラー保持部420は、リンク機構部430から伝達された駆動力によって回転シャフト425を中心に回旋される。ミラー保持部が回旋されることによって、回転シャフト425を中心に、反射ミラー410が回旋移動をする。
反射ミラー420が回旋されることによって、視標光束の光路が変更され、被検眼Eに投影される固視標の呈示位置が変更される。固視標の呈示位置が変更されることで、被検者の視線方向が変更される。例えば、反射ミラーをA方向に回転させる(実線部から点線部へ移動される)ことによって、被検者の撮影を行うための光路が、遠用測定用光学系200の光路から近用測定用光学系300の光路へと切り換えられる。このように、光路切換ユニット400は、反射ミラー410を回旋させることで固視標の呈示位置を変化させ、被検者の視線方向を上下方向に変化させる。
<側方撮影光学系>
図3は、側方撮影光学系500の概略構成図を示している。側方撮影光学系500は、被検者を側方から撮影することによって被検者の側方画像を取得する。図3に示されるように、側方撮影光学系500は、被検者の顔が支持される位置の左右方向に固定されている。
図3は、側方撮影光学系500の概略構成図を示している。側方撮影光学系500は、被検者を側方から撮影することによって被検者の側方画像を取得する。図3に示されるように、側方撮影光学系500は、被検者の顔が支持される位置の左右方向に固定されている。
本実施例の側方撮影光学系500は、被検者の左側に配置される左方撮影光学系500Lと、被検者の右側に配置される右方撮影光学系500Rに大別される。左方撮影光学系500Lは被検者を左側方から撮影する。右方撮影光学系500Rは、被検者を右側方から撮影する。
左方撮影光学系500Lは、ハーフミラー530L、赤外フィルタ540L、絞り550L、撮像レンズ560L、撮像素子570L、を主に備える。
同様に、右方撮影光学系500Rは、ハーフミラー530R、赤外フィルタ540R、絞り550R、撮像レンズ560R、撮像素子570R、を主に備える。なお、以下の説明においては、便宜上、赤外フィルタ540L,540R、絞り550L,550R、撮像レンズ560L,560R、撮像素子570L,570Rの各部材をまとめて、撮像部575L,575Rと記載する。
赤外フィルタ540L,540Rは可視光を吸収し、赤外光を通過させる。撮像素子570L,570Rには、赤外フィルタ540L,540Rを通過した赤外光が受光される。
なお、本実施例における調節光源590L,590Rには、赤外光源が用いられる。赤外光源と赤外フィルタを用いることによって、撮像レンズ等が外乱光によって照明され、側方画像に写ることを防ぐことができる。しかし、必ずしも赤外光源を用いる必要はない。可視光源等を用いてもよい。この場合、赤外フィルタは不要となる。
以下、左方撮影光学系500Lを例に挙げて側方画像の撮像について説明する。照明光学系100からの照明光束は、被検者の顔と眼鏡フレームFに反射される。反射された照明光束は、左方撮影光学系500Lに入射する。その後、照明光束は、ハーフミラー530Lによって反射される。ハーフミラー530Lによって反射された反射光束は、赤外フィルタ540Lを通過する。赤外フィルタ540Lを通過した赤外光は、絞り550Lを通過した後、撮像レンズ560Lによって集光され、撮像素子570Lの撮像面上に像を結ぶ。撮像素子570Lは、検出した撮像画像を制御部70に送信する。このようにして、撮像素子570L,570Rは、被検者の左側の側方画像が撮像される。また、左方撮影光学系500Lと同様にして、右方撮影光学系500Rによって、被検者の右側の側方画像が撮像される。
<制御部>
図4は本実施例の制御系を示すブロック図である。制御部70は、CPU(プロセッサ)、RAM、ROM等を備える。制御部70のCPUは、眼鏡装用画像解析装置1の制御を司る。RAMは、各種情報を一時的に記憶する。制御部70のROMには、眼鏡装用画像解析装置1の動作を制御するための各種プログラム、初期値等が記憶されている。
図4は本実施例の制御系を示すブロック図である。制御部70は、CPU(プロセッサ)、RAM、ROM等を備える。制御部70のCPUは、眼鏡装用画像解析装置1の制御を司る。RAMは、各種情報を一時的に記憶する。制御部70のROMには、眼鏡装用画像解析装置1の動作を制御するための各種プログラム、初期値等が記憶されている。
制御部70には、不揮発性メモリ(以下、メモリに省略する)72、操作ユニット10、光源110L,110R,111L,110R,220,320、撮像素子210,310,570L,570R、光学系移動ユニット350の駆動部、駆動部440、等が電気的に接続されている。
メモリ72は、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。例えば、ハードディスクドライブ、フラッシュROM、および、眼鏡装用画像解析装置1に着脱可能に装着されるUSBメモリ等をメモリ72として使用することができる。メモリ72には、眼鏡装用画像解析装置1による遠方視画像又は近方視画像、側方画像の撮影を制御するための撮影制御プログラム、遠方視画像又は近方視画像、側方画像を処理する画像処理プログラムが記憶されている。また、メモリ72には、撮影された遠方視画像又は近方視画像、側方画像の撮影位置の情報等、撮影に関する各種情報が記憶される。操作ユニット10には、検者による各種操作指示が入力される。
<制御動作>
以下、本実施例における制御動作について、図5を参照して、説明をする。なお、本実施例においては、遠方視状態の被検者の画像を例に挙げて制御動作について説明する。もちろん、本発明は、近方視状態の被検者についても同様の制御が行われてもよい。
以下、本実施例における制御動作について、図5を参照して、説明をする。なお、本実施例においては、遠方視状態の被検者の画像を例に挙げて制御動作について説明する。もちろん、本発明は、近方視状態の被検者についても同様の制御が行われてもよい。
<画像表示(S1)>
検者は操作ユニット10に入力し、遠用撮影モードに設定する。遠用撮影モードでは、遠方視状態の被検者の画像を撮影するために、各種光学系の制御が制御部70によって行われる。
検者は操作ユニット10に入力し、遠用撮影モードに設定する。遠用撮影モードでは、遠方視状態の被検者の画像を撮影するために、各種光学系の制御が制御部70によって行われる。
遠用撮影モードに設定された場合、制御部70は、駆動部440の駆動を制御することによって、光学切換ユニット400の反射ミラー410の角度θを、遠用撮影モードに対応する角度(例えば、水平方向に対して40°)に設定する。遠用撮影モードに対応する角度に傾斜された反射ミラー410によって、光源220からの固視標光束は、被検眼Eに対して水平に投光される。
検者は、眼鏡フレームを装用するよう被検者に指示する。検者は、顔支持ユニット6の当接部31に額を当てるように被検者に指示する。次に、検者は、固視標を注視するように被検者に指示する。
被検者が固視標を注視する様子は撮像光学系200b及び側方撮像光学系500によって撮像される。制御部700は撮像光学系200b及び側方撮像光学系500からの検出信号に基づいて、被検眼E及び被検者の正面及び側方から撮影した顔の画像を表示部15に表示する(S1)。
<アライメント調整(S2)、第1画像取得(S3)>
初めに、検者は、被検者を顔支持ユニット5に位置させる。検者は、眼鏡装用画像解析装置1に対して被検者の顔が所定位置に配置されるように顔支持ユニット5の調整を行う。すなわち、検者は、アライメント調整を行う(S2)。
初めに、検者は、被検者を顔支持ユニット5に位置させる。検者は、眼鏡装用画像解析装置1に対して被検者の顔が所定位置に配置されるように顔支持ユニット5の調整を行う。すなわち、検者は、アライメント調整を行う(S2)。
例えば、本実施例においては、被検眼Eの角膜頂点を表示部15上の所定位置に表示させるように、被検者と眼鏡装用画像解析装置1の距離が調節される。なお、本実施例においては、側方撮影光学系500によって撮影された画像の中心を示すための基準線V,Hが表示部15の側方画面上に表示される(図6参照)。本実施形態では、基準線V,Hの交点と角膜頂点とが合致されたとき、アライメント位置が適正となるように設定されている。検者は、表示部15に表示された被検者の顔(被検顔)の画像を確認し、アライメントを行う。
被検者の顔の位置調整が完了すると、検者は、表示部15に表示された図示無き撮影ボタンをタッチする。撮影ボタンがタッチされると、制御部70は、遠方視状態の被検者の第1画像(正面画像及び側方画像)を撮影する(S3)。
<画像解析処理(S5)>
検者は、画像の撮影が終了すると画像の解析を行う。例えば、検者は、操作ユニット10を操作し、図示無き画像解析モードを選択する。検者によって画像解析モードが選択されると、制御部70は、画像の解析を開始する。例えば、制御部70は、画像解析において、眼鏡のフレームや被検者の瞳孔位置を検出する。そして、制御部70は、検出結果に基づいて、眼鏡フレームに対する被検眼Eの眼鏡パラメータを算出する(S6)。
検者は、画像の撮影が終了すると画像の解析を行う。例えば、検者は、操作ユニット10を操作し、図示無き画像解析モードを選択する。検者によって画像解析モードが選択されると、制御部70は、画像の解析を開始する。例えば、制御部70は、画像解析において、眼鏡のフレームや被検者の瞳孔位置を検出する。そして、制御部70は、検出結果に基づいて、眼鏡フレームに対する被検眼Eの眼鏡パラメータを算出する(S6)。
以下、本実施例における画像解析処理について、図7を参照して、説明をする。なお、本実施例においては、遠方視状態の被検者の画像を例に挙げて、画像解析処理(S5)について説明する。もちろん、本発明は、近方視状態の被検者の画像解析についても適用可能である。また、本実施例において、正面画像を例に挙げて説明する。もちろん、側方画像に対しても本発明の解析処理を適用することができる。
<ノイズ除去処理(S51)>
初めに、制御部70は、撮影した正面画像(第1画像)に対して、ノイズ除去処理(S51)を行う。例えば、制御部70は、平滑化フィルタ(移動平均フィルタ)によって、ノイズ除去処理を行う。平滑化フィルタでは、初めに、平滑化フィルタの画像処理を行う対象の画素が設定される。設定された画素の輝度値及びその周辺の画素の輝度値を用いて、平均輝度値が算出される。平滑化フィルタの画像処理を行う対象として設定された画素の輝度値が、算出された平均輝度値に置き換えられる。
初めに、制御部70は、撮影した正面画像(第1画像)に対して、ノイズ除去処理(S51)を行う。例えば、制御部70は、平滑化フィルタ(移動平均フィルタ)によって、ノイズ除去処理を行う。平滑化フィルタでは、初めに、平滑化フィルタの画像処理を行う対象の画素が設定される。設定された画素の輝度値及びその周辺の画素の輝度値を用いて、平均輝度値が算出される。平滑化フィルタの画像処理を行う対象として設定された画素の輝度値が、算出された平均輝度値に置き換えられる。
本実施例において、制御部70は、撮影された画像の全画素に対して、平滑化フィルタの画像処理を行う対象画素として設定する。制御部70は、順に、平均輝度値に変換していく。なお、平均化処理を行うために、平均処理をおこなうための周辺の画素の範囲は、任意に設定可能である。例えば、設定された画素を中心として、3×3画素、5×5画素等の範囲で設定することができる。もちろん、この範囲の設定は、任意に変更することが可能である。なお、ノイズ除去の画像処理としては、平滑化フィルタに限定されない。例えば、ガウシアンフィルタ、バイラテラルフィルタ等の画像処理を用いる構成であってもよい。以上のようにして、平滑化フィルタが用いられることによって、撮影した画像からノイズが除去される。
<第2画像取得(S52)>
次いで、制御部70は、撮影画像(以下、第1画像と記載)より眼鏡のフレーム部位が除去された第2画像を取得する(S52)。図8は、フレームの除去処理について説明する図である。図8(a)は、ノイズ除去処理後における第1画像を示している。図8(b)は、フレーム部位を除去することによって取得された第2画像を示している。本実施例において、例えば、制御部70は、第1画像に対して、モルフォロジー演算を用いて画像処理を行うことによって、第2画像を取得する。例えば、制御部70は、モルフォロジー演算として、クロージング処理を行う。なお、本実施例においては、フレーム部位を除去する画像処理として、モルフォロジー演算を用いる構成としたがこれに限定されない。フレーム部位が除去される画像処理が用いられればよい。例えば、画像処理は、メディアンフィルタ等を用いることができる。
次いで、制御部70は、撮影画像(以下、第1画像と記載)より眼鏡のフレーム部位が除去された第2画像を取得する(S52)。図8は、フレームの除去処理について説明する図である。図8(a)は、ノイズ除去処理後における第1画像を示している。図8(b)は、フレーム部位を除去することによって取得された第2画像を示している。本実施例において、例えば、制御部70は、第1画像に対して、モルフォロジー演算を用いて画像処理を行うことによって、第2画像を取得する。例えば、制御部70は、モルフォロジー演算として、クロージング処理を行う。なお、本実施例においては、フレーム部位を除去する画像処理として、モルフォロジー演算を用いる構成としたがこれに限定されない。フレーム部位が除去される画像処理が用いられればよい。例えば、画像処理は、メディアンフィルタ等を用いることができる。
クロージング処理では、画像の膨張処理行った後、縮小処理を行う。例えば、制御部70は、膨張処理において、膨張の画像処理を行う対象の画素を中心として所定の画素領域(例えば、4近傍、8近傍、3×3画素、5×5画素等)を設定する。そして、制御部70は、設定した画素領域の各画素の輝度値を検出し、検出した輝度値の内で、最大の輝度値となる画素を選択する。制御部70は、対象の画素(中心の画素)を、最大の輝度値(選択された画素の輝度値)に置き換える。制御部70は、各画素において膨張処理を行っていくことによって、画像全体に対して、膨張処理を行う。そして、制御部70は、画像全体に対して、膨張処理を繰り返し(複数回)行う。
例えば、顔部位(肌部分)の輝度値は、フレーム部位の輝度値に対して、大きくなる。このため、フレーム部位に対応する画素位置を中心として所定の画像領域にて膨張処理を行った場合に、所定の画像領域内に顔部位に対応する画素位置が含まれると、フレーム部位に対応する画素位置の輝度値が顔部位に対応する画素位置の輝度値に置き換えられる。制御部70は、膨張処理を画像全体に対して複数回行うことによって、フレーム部位の画素を顔部位の画素に置き換える。
ここで、膨張処理を行う画像領域又は膨張処理を実行する回数の少なくとも一方は、第1画像よりフレーム部位が除去されるように設定される。すなわち、フレーム部位の除去は、膨張処理を行う所定の画像領域の設定を調整することによって、実行される構成としてもよい。また、フレーム部位の除去は、膨張処理の回数を調整することによって、実行される構成としてもよい。また、フレーム部位の除去は、膨張処理を行う所定の画像領域の設定及び膨張処理の回数を調整することによって、実行される構成としてもよい。
例えば、膨張処理を行うための画像領域の設定は、フレーム部位に対応する画素と、顔部位に対応する画素とが含まれるように設定することによって、フレーム部位のみを除去することができる。すなわち、この画像領域の設定は、膨張処理時において、フレーム部位以外の部位が除去されないように設定されることが好ましい。例えば、制御部70は、眉毛部位及び被検眼に対応する画素位置にて所定の画像領域を設定して膨張処理を行う場合に、眉毛部位及び被検眼に対応する画素は含まれるが、顔部位の対応する画素は含まれないように画像領域を設定する。このように構成することによって、膨張処理の回数の設定に影響されることなく、フレーム部位のみが除去される。
また、例えば、膨張処理を実行する回数の設定は、フレーム部位のみが除去され、フレーム部位以外の部位が除去されないように設定されることが好ましい。すなわち、制御部70は、膨張処理を実行する回数を制御することによって、画像領域の設定に影響されることなく、フレーム部位のみが除去する。
例えば、制御部70は、膨張処理を行う対象の画素を中心にして、1回目の膨張処理を行う。このとき、1回目の膨張処理では、フレーム部位の輝度値が顔部位の輝度値に置き換えられていない場合であっても、2回目の膨張処理を実行することによって、フレーム部位の輝度値が顔部位の輝度値に置き換えられる。すなわち、膨張処理を行う対象の画素の近傍の画素が1回目の膨張処理の実行によって、顔部位に対応する輝度値に置き換えられる。これによって、制御部70が、2回目の膨張処理を実行することによって、顔部位に対応する画素位置の輝度値に置き換えることができる。
以上のように、膨張処理を行う画像領域又は膨張処理を実行する回数の少なくとも一方が調整されることによって、第1画像よりフレーム部位が除去される。なお、制御部70は、対象とする画素の位置に応じて、画像領域の設定や膨張処理の回数の設定を変更する構成としてもよい。
このように、制御部70は、膨張処理を行うことによって、対象の画素を周辺に位置する画素同士を結びつけ、異なる画素へと変更させる。すなわち、制御部70は、フレーム部位の画像を顔画像に一致させることによって、フレームを除去する。
次いで、制御部70は、縮小処理を行う。縮小処理では、所定の画素を周辺に位置する画素同士を結びつけたままの状態でもとの状態へと戻す。例えば、制御部70は、縮小処理において、縮小の画像処理を行う対象の画素を中心として所定の画素領域(例えば、3×3画素、5×5画素等)を設定する。そして、制御部70は、設定した画素領域の各画素の輝度値を検出し、検出した輝度値の内で、最小の輝度値となる画素を選択する。制御部70は、対象の画素(中心の画素)を、最小の輝度値(選択された画素の輝度値)に置き換える。制御部70は、各画素において縮小処理を行っていくことによって、画像全体に対して、縮小処理を行う。そして、制御部70は、画像全体に対して、縮小処理を繰り返し(複数回)行う。
縮小処理では、周辺の輝度値の内でもっとも最小の輝度値を選択する。ここで、膨張処理によって、フレーム部位の輝度値は顔部位の輝度値に置き換えられているため、縮小処理を行った場合であっても、フレーム部位に関する輝度値が再び画像上に現われることはない。すなわち、フレーム部位のように、膨張処理によって、フレーム部位の輝度値が残っていない場合には、縮小処理を行った際に、フレーム部位の輝度値が残存していないために、フレーム部位に対応する輝度値が最小値として選択されることがない。このため、膨張処理によって、フレーム部位の輝度値から顔部位の輝度値に置き換えられた画素の輝度値は、フレーム部位の輝度値に置き換えられることがない。すなわち、フレーム部位の画像が再度構築されることはない。一方で、眉毛部位や被検眼のように膨張処理を行った後でも、その部位に関する輝度値(顔の輝度値に置き換えられていない部分)が残っているものに関しては、縮小処理の際の画像領域において、眉毛部位の輝度値や被検眼の輝度値に再び置き換えられる。このため、顔の輝度値に置き換えられていない部位において、その部位が元の画像(第1画像)の部位の状態となる。
本実施例において、縮小処理を行う際の所定の画像領域及び縮小処理を実行する回数は、膨張処理と同様の設定にて行う。例えば、制御部70は、膨張処理を行った画像領域と、同様の画像領域を設定して縮小処理を行う。これによって、制御部70は、縮小処理を行うことによって、対象の画素とその周辺に位置する画素同士を結びつけた状態を維持した状態で、もとの画像に戻すことできる。なお、本実施例において、膨張処理の画像領域と縮小処理の画像領域は、同様の画像領域にて画像処理を実行する構成としたがこれに限定されない。膨張処理の画像領域を縮小処理の画像領域よりも大きく設定する構成としてもよいし、縮小処理の画像領域を膨張処理の画像領域よりも大きく設定する構成としてもよい。もちろん、それぞれの画像領域は、任意に設定可能な構成としてもよい。
以上のようにして、クロージング処理を行うことによって、第1画像よりフレーム部位を除去した第2画像(図8(b)参照)が取得される。
なお、本実施例においては、クロージング処理を画像全体の各画素単位に対して行う構成を例に挙げたがこれに限定されない。画像全体の内において、所定の領域の各画素単位に対してクロージング処理が実行される構成としてもよい。例えば、制御部70は、画像全体の内で、フレームが存在する可能性の高い領域の各画素単位のみに対してクロージング処理を実行するようにしてもよい。この場合、フレームが存在する可能性の高い領域は、予め、本装置を用いて、フレーム装用をした被検者を撮影する。そして、撮影した画像に基づいて、フレーム部位の位置が算出され、フレーム部位の位置座標がメモリ72に記憶される構成が挙げられる。
<第1画像と第2画像との合成処理(S53)>
制御部70は、第1画像と第2画像との画像の合成処理(S53)を行うことによって、合成画像(第3画像)を取得する。例えば、制御部70は、合成処理として、各画素単位で、第2画像の輝度値から第1画像の輝度値を差し引く画像処理を行う。制御部70は、第1画像と第2画像との同じ画素位置毎に、第2画像の輝度値から第1画像の輝度値を差し引いていく。図9は、第1画像と第2画像との合成処理によって取得された第3画像の一例を示している。本実施例において、第1画像と第2画像を合成処理することによって、フレーム部位のみが表示された第3画像が取得される。すなわち、第1画像と第2画像とでフレーム部位に対応する画素位置での輝度値が異なるため、制御部70は、フレーム部位のみが表示された(強調された)第3画像を取得することができる。
制御部70は、第1画像と第2画像との画像の合成処理(S53)を行うことによって、合成画像(第3画像)を取得する。例えば、制御部70は、合成処理として、各画素単位で、第2画像の輝度値から第1画像の輝度値を差し引く画像処理を行う。制御部70は、第1画像と第2画像との同じ画素位置毎に、第2画像の輝度値から第1画像の輝度値を差し引いていく。図9は、第1画像と第2画像との合成処理によって取得された第3画像の一例を示している。本実施例において、第1画像と第2画像を合成処理することによって、フレーム部位のみが表示された第3画像が取得される。すなわち、第1画像と第2画像とでフレーム部位に対応する画素位置での輝度値が異なるため、制御部70は、フレーム部位のみが表示された(強調された)第3画像を取得することができる。
<ニ値化処理(S55)>
次いで、例えば、制御部70は、取得した第3画像に対して、二値化処理を行う(S55)。これによって、フレーム部位がより強調される。本実施例において、例えば、制御部70は、各画素位置において、画素の輝度値が0以上である場合には、その画素の輝度値を255に置き換える。以上のようにして、制御部70は、第3画像に対して二値化処理を行う。なお、本実施例において、画素の輝度値が0以上である場合には、その画素の輝度値が255に置き換えられる構成としたが、これに限定されない。二値化に用いられる閾値としては、任意に設定可能である。例えば、二値化の閾値を10に設定した場合、制御部70は、画素の輝度値が10以上である場合には、その画素の輝度値を255に置き換える。また、制御部70は、画素の輝度値が10未満である場合には、その画素の輝度値を0に置き換える構成であってもよい。なお、閾値は、第3画像の輝度値に基づいて設定される構成としてもよい。例えば、制御部70は、第3画像の全画素の平均値を取得し、取得された平均値に基づいて閾値を設定する。
次いで、例えば、制御部70は、取得した第3画像に対して、二値化処理を行う(S55)。これによって、フレーム部位がより強調される。本実施例において、例えば、制御部70は、各画素位置において、画素の輝度値が0以上である場合には、その画素の輝度値を255に置き換える。以上のようにして、制御部70は、第3画像に対して二値化処理を行う。なお、本実施例において、画素の輝度値が0以上である場合には、その画素の輝度値が255に置き換えられる構成としたが、これに限定されない。二値化に用いられる閾値としては、任意に設定可能である。例えば、二値化の閾値を10に設定した場合、制御部70は、画素の輝度値が10以上である場合には、その画素の輝度値を255に置き換える。また、制御部70は、画素の輝度値が10未満である場合には、その画素の輝度値を0に置き換える構成であってもよい。なお、閾値は、第3画像の輝度値に基づいて設定される構成としてもよい。例えば、制御部70は、第3画像の全画素の平均値を取得し、取得された平均値に基づいて閾値を設定する。
<ラベリング処理(S57)>
制御部70は、二値化処理が完了すると、ラベリング処理を行う(S57)。ラベリング処理では、制御部70は、二値化された第3画像において、高い輝度値(白の部分)の画素が連続した画素に同じ識別子(例えば、番号等)を付与する。そして、制御部70は、同じ識別子が付与された画素の各領域の面積を求める。制御部70は、各領域の面積が、所定の範囲内に収まるか否かを領域毎に判定する。制御部70は、各領域の内、所定の範囲内の収まった領域のみをフレーム部位の領域として検出する。また、制御部70は、各領域の内、所定の範囲内に収まらなかった領域の画像を第3画像より除去する。以上のようにして、第3画像から、フレーム部位とは異なる部位(例えば、眉毛や被検眼等)によって生じるノイズを除去することができる。なお、例えば、所定の範囲としては、予め、フレームの領域(大きさ)を想定して、設定される構成が挙げられる。この場合、例えば、所定の範囲は、予め、平均的なフレームの領域が測定され、その測定結果からフレーム部位として判定される範囲を設定する構成が挙げられる。もちろん、所定の範囲は、フレームの領域を想定して、設定される構成に限定されない。所定の範囲は、第3画像より、フレーム部位以外のノイズが除去できるように設定される構成であればよい。
制御部70は、二値化処理が完了すると、ラベリング処理を行う(S57)。ラベリング処理では、制御部70は、二値化された第3画像において、高い輝度値(白の部分)の画素が連続した画素に同じ識別子(例えば、番号等)を付与する。そして、制御部70は、同じ識別子が付与された画素の各領域の面積を求める。制御部70は、各領域の面積が、所定の範囲内に収まるか否かを領域毎に判定する。制御部70は、各領域の内、所定の範囲内の収まった領域のみをフレーム部位の領域として検出する。また、制御部70は、各領域の内、所定の範囲内に収まらなかった領域の画像を第3画像より除去する。以上のようにして、第3画像から、フレーム部位とは異なる部位(例えば、眉毛や被検眼等)によって生じるノイズを除去することができる。なお、例えば、所定の範囲としては、予め、フレームの領域(大きさ)を想定して、設定される構成が挙げられる。この場合、例えば、所定の範囲は、予め、平均的なフレームの領域が測定され、その測定結果からフレーム部位として判定される範囲を設定する構成が挙げられる。もちろん、所定の範囲は、フレームの領域を想定して、設定される構成に限定されない。所定の範囲は、第3画像より、フレーム部位以外のノイズが除去できるように設定される構成であればよい。
<フレーム検出処理(S58)>
ラベリング処理が完了した後、制御部70は、フレーム検出処理を行う(S58)。例えば、制御部70は、第3画像の各画素の輝度値を検出していく。制御部70は、輝度値の検出された画素位置をフレーム部位の位置座標として、随時、メモリ72に記憶させる。以上のようにして、制御部70は、第3画像よりフレーム部位の位置を検出する。なお、フレーム検出処理としては、上記方法に限定されない。例えば、ラベリング処理によってフレーム部位として検出された領域の情報をフレーム部位の検出結果としても用いる構成であってもよい。
ラベリング処理が完了した後、制御部70は、フレーム検出処理を行う(S58)。例えば、制御部70は、第3画像の各画素の輝度値を検出していく。制御部70は、輝度値の検出された画素位置をフレーム部位の位置座標として、随時、メモリ72に記憶させる。以上のようにして、制御部70は、第3画像よりフレーム部位の位置を検出する。なお、フレーム検出処理としては、上記方法に限定されない。例えば、ラベリング処理によってフレーム部位として検出された領域の情報をフレーム部位の検出結果としても用いる構成であってもよい。
このように、眼鏡を装用した被検者の第1画像と、第1画像よりフレーム部位を除去した第2画像との合成によって取得された第3画像よりフレーム部位を抽出することによって、好適に精度よくフレーム部位の検出を行うことができる。
<眼鏡パラメータ算出>
以上のようにして、フレーム部位が検出されると、制御部70は、フレーム部位の検出結果を用いることによって、各種パラメータを算出する。例えば、制御部70は、第3画像よりフレーム部位を抽出した結果であるフレーム抽出結果と、第1画像より被検眼の瞳孔情報(例えば、瞳孔径や瞳孔位置等)を抽出した瞳孔情報抽出結果と、に基づいて、眼鏡を製作するための眼鏡パラメータを算出する。また、例えば、制御部70は、第1画像の抽出結果又は第3画像の抽出結果の一方を用いて眼鏡パラメータを算出することも可能である。
以上のようにして、フレーム部位が検出されると、制御部70は、フレーム部位の検出結果を用いることによって、各種パラメータを算出する。例えば、制御部70は、第3画像よりフレーム部位を抽出した結果であるフレーム抽出結果と、第1画像より被検眼の瞳孔情報(例えば、瞳孔径や瞳孔位置等)を抽出した瞳孔情報抽出結果と、に基づいて、眼鏡を製作するための眼鏡パラメータを算出する。また、例えば、制御部70は、第1画像の抽出結果又は第3画像の抽出結果の一方を用いて眼鏡パラメータを算出することも可能である。
第1画像より被検眼の瞳孔情報を抽出する場合において、例えば、制御部70は、第1画像より、画像処理によって瞳孔位置を検出する。もちろん、瞳孔位置検出は、画像処理によって検出される構成に限定されない。例えば、検者は、左右眼の瞳孔中心をタッチパネル、またはマウス等のポインティングデバイスによって指定することで、瞳孔位置が検出される構成としてもよい。
なお、第1画像と第3画像は、関連付けられている。すなわち、第1画像と第3画像は、pixel-to-pixelの関係で対応付けられている。このため、制御部70は、第1画像と第3画像との位置合わせを行う必要がない。すなわち、制御部70は、難しい処理なく、容易に眼鏡パラメータを算出することができる。
図10は、眼鏡パラメータについて説明する図である。例えば、第1画像と第3画像の少なくとも一方に基づいて算出される眼鏡パラメータは、フィッティングポイント高さH、瞳孔間距離PD、フレーム幅TW、フレーム高さTH、等が挙げられる。フィッティングポイント高さHは、瞳孔中心から眼鏡レンズの下辺までの距離である。例えば、フィッティングポイント高さHは、第1画像の抽出結果と、第3画像の抽出結果と、に基づいて算出される。瞳孔間距離PDは、左右の瞳孔中心間の距離である。例えば、瞳孔間距離PDは、第1画像の抽出結果に基づいて算出される。フレーム幅TWは、眼鏡レンズの玉型の幅である。フレーム高さTHは、眼鏡レンズの玉型の高さである。例えば、フレーム幅TW及びフレーム高さTHは、第3画像の抽出結果に基づいて算出される。
なお、本実施例においては、上記記載の眼鏡パラメータの算出を例に挙げて説明したが、撮影された画像から算出される眼鏡パラメータは、これらに限定されない。撮影された画像から種々の眼鏡パラメータ(例えば、フレームPD、遠用アイポイント、近用アイポイント等)を算出することができる。また、側方画像からフレーム部位を抽出することによって、算出される眼鏡パラメータ(例えば、フレーム前傾角度、眼鏡装用距離等)もある。
以上のように、制御部70は、眼鏡パラメータを算出する。算出された眼鏡パラメータは、最適な累進レンズの選択、カスタムレンズの作製等に用いられる。
<変容例>
なお、本実施例において、ノイズ除去処理(S51)を行った画像に対して、第2画像取得が行われる構成としたがこれに限定されない。ノイズ除去処理が行われない構成としてもよい。しかしながら、ノイズ除去処理は、画像よりノイズが除去することができるため、フレーム検出を精度よく行うことができるため、より好ましい。
なお、本実施例において、ノイズ除去処理(S51)を行った画像に対して、第2画像取得が行われる構成としたがこれに限定されない。ノイズ除去処理が行われない構成としてもよい。しかしながら、ノイズ除去処理は、画像よりノイズが除去することができるため、フレーム検出を精度よく行うことができるため、より好ましい。
なお、本実施例においては、膨張処理が行われた後に、縮小処理が行われるようなクロージング処理が行われる構成としたがこれに限定されない。縮小処理が行われた後、膨張処理が行われるようなオープニング処理が行われる構成としてもよい。なお、本実施例においては、赤外光源を用いて、顔を照明しているため、フレーム部位の輝度値に対して、顔部位の輝度値が高い画像が取得される。すなわち、クロージング処理を行う構成を用いることで、フレーム部位の輝度値を顔部位の輝度値に置き換えられ、容易にフレーム部位の除去された画像(第2画像)を取得することができる。このため、本実施例においては、クロージング処理を用いる方がより容易にフレーム検出を行うことができるため、好ましい。もちろん、赤外光源以外の光源であっても、フレーム部位の輝度値に対して、顔部位の輝度値が高い画像が取得されるような光源を用いる場合には、クロージング処理を用いる方がより容易にフレーム検出を行うことができるため、好ましい。なお、顔部位の輝度値よりもフレーム部位の輝度値が高い場合においては、オープニング処理が行われることが好ましい。
なお、本実施例においては、赤外光源を用いて取得されたモノクロ画像に対して、クロージング処理を行う構成を例に挙げて説明したがこれに限定されない。クロージング処理は、可視光源等を用いて取得されたカラー画像に対しても適用可能である。例えば、可視光源等を用いて取得されたカラー画像に対してクロージング処理を行う場合に、顔部位の色に近い色のものほど、輝度値が高く、顔部位の色から遠い色のものほど輝度値が低くなるように、カラー画像がモノクロ画像に変換される。そして、変換したモノクロ画像に対して、クロージング処理が行われる構成が挙げられる。
なお、本実施例において、フレームの種類(形状)や、フレームの厚み(領域)、フレームの材質等によって、クロージング処理の回数を変更する構成を設けてもよい。例えば、フレームの厚みが薄い場合において、制御部70は、クロージング処理の回数(膨張処理と縮小処理の回数)を減少させる。このようにすることによって、必要以上に画像処理を行ってしまい、被検者の眉毛部位や被検眼のようなフレーム部位以外の部位を除去してしまうことを防ぐことができる。また、例えば、フレームの厚みが厚い場合において、制御部70は、クロージング処理の回数を増加させる。このようにすることによって、フレーム部位の領域が大きい場合であっても、精度良くフレーム部位を除去することができる。
また、例えば、フレームの種類(形状)や、フレームの厚み(領域)、フレームの材質等によって、クロージング処理の画像領域を変更する構成を設けてもよい。例えば、フレームの厚みが薄い場合において、制御部70は、クロージング処理の画像領域(膨張処理の画像領域と縮小処理の画像領域)を小さく設定する。このようにすることによって、必要以上に画像処理を行ってしまい、被検者の眉毛部位や被検眼のようなフレーム部位以外の部位を除去してしまうことを防ぐことができる。また、例えば、フレームの厚みが厚い場合において、制御部70は、クロージング処理の画像領域を大きく設定する。このようにすることによって、フレーム部位の領域が大きい場合であっても、精度良くフレーム部位を除去することができる
なお、本実施例においては、第3画像を取得するための合成処理として、第2画像の輝度値より第1画像の輝度値を差し引く画像処理を行う構成を例に挙げて説明したがこれに限定されない。第1画像と第2画像とを用いることによって、フレーム部位が強調(抽出)された画像を取得できる合成処理であればよい。例えば、第1画像の輝度値より第2画像の輝度値を差し引く構成としてもよい。また、例えば、2つの画像を加算処理することによって、第3画像を取得してもよい。この場合、フレーム部位以外の部位が強調されることになるため、フレーム部位を検出しやすくなる。
なお、本実施例においては、第3画像を取得するための合成処理として、第2画像の輝度値より第1画像の輝度値を差し引く画像処理を行う構成を例に挙げて説明したがこれに限定されない。第1画像と第2画像とを用いることによって、フレーム部位が強調(抽出)された画像を取得できる合成処理であればよい。例えば、第1画像の輝度値より第2画像の輝度値を差し引く構成としてもよい。また、例えば、2つの画像を加算処理することによって、第3画像を取得してもよい。この場合、フレーム部位以外の部位が強調されることになるため、フレーム部位を検出しやすくなる。
なお、本実施例においては、クロージング処理が行われた後に、二値化処理が行われる構成としたがこれに限定されない。これらの画像処理の処理順序は、任意に設定可能である。例えば、制御部70は、二値化処理をクロージング処理の前に実行する構成としてもよい。
なお、第3画像を取得した後の画像処理として、二値化処理やラベリング処理が実行される構成としたがこれに限定されない。第3画像取得後の画像処理は、第3画像よりフレーム部位の検出を行いやすい状態とするための画像処理であればよい。例えば、第3画像取得後の画像処理としては、二値化処理やラベリング処理の他に、平滑化フィルタやガウシアンフィルタ等の画像処理を用いてもよい。
なお、本実施例において、第3画像を取得した後のラベリング処理の実行の可否は、任意に設定可能である。例えば、第3画像を取得した後に、ラベリング処理が実行されることなく、フレーム検出処理が行われる構成としてもよい。
なお、本実施例において、二値化処理の後に、再度、クロージング処理が行われる構成としてもよい。この場合、第3画像に対して、クロージング処理が行われるため、第3画像において、フレーム画像の一部が欠損していた場合であっても、フレーム画像の欠損部位の画像を補間することが可能となる。このため、ラベリング処理等を行った場合に、フレーム部位がより精度良く検出可能となる。
なお、本実施例においては、反射ミラー410の角度を変更させることによって、固視標の呈示位置を変更する光学系を用いて撮影した画像に対して、画像解析処理を行う構成を例に挙げて説明したが、これに限定されない。本実施例の画像解析処理は、眼鏡を装用した被検者を撮影した画像に対して適用することができる。すなわち、画像を撮影するための光学系としては、本実施例の光学系に限定されず、種々の光学系を適用してもよい。
なお、本発明においては、本実施例に記載した装置に限定されない。例えば、上記実施例の機能を行う眼科撮影ソフトウェア(プログラム)をネットワークや各種記憶媒体を介して、システムあるいは装置に供給する。そして、システムあるいは装置のコンピュータ(例えば、CPU等)がプログラムを読み出し、実行することも可能である。
5 顔支持ユニット
6 呈示窓
10 操作ユニット
15 表示部
70 制御部
72 メモリ
110 照明光学系
200 遠用測定光学系
300 近用測定光学系
400 光路切換ユニット
500 側方撮影光学系
6 呈示窓
10 操作ユニット
15 表示部
70 制御部
72 メモリ
110 照明光学系
200 遠用測定光学系
300 近用測定光学系
400 光路切換ユニット
500 側方撮影光学系
Claims (7)
- 眼鏡パラメータを測定するために眼鏡を装用した被検者の画像を撮影し、撮影された前記被検眼の画像の解析を行う眼鏡装用画像解析装置であって、
撮影手段からの撮像信号に基づいて取得された第1画像であり、眼鏡フレームを含む被検者の前記第1画像から画像処理によってフレーム部位を除去することによって、前記フレーム部位が除去された第2画像を取得する画像除去手段と、
前記第1画像と前記第2画像とを合成処理することによって、第3画像を取得する画像合成手段と、を有し、
前記第3画像より前記フレーム部位を抽出する画像処理手段を備えることを特徴とする眼鏡装用画像解析装置。 - 請求項1の眼鏡装用画像解析装置において、
前記画像除去手段は、
前記第2画像を取得するための、フレーム部位の除去処理において実行される、膨張処理の処理回数及び縮小処理の処理回数の少なくとも一方の処理回数の設定の変更、
又は、前記第2画像を取得するための、フレーム部位の除去処理において実行される、膨張処理を行う画像領域又は縮小処理を行う画像領域の少なくとも一方の画像領域の設定の変更、の少なくとも一方の設定を変更することが可能であることを特徴とする眼鏡装用画像解析装置。 - 請求項1の眼鏡装用画像解析装置において、
前記フレームの情報を受信する受信手段を備え、
前記画像除去手段は、前記受信手段によって受信した前記フレーム情報に基づいて、前記第2画像を取得するための、フレーム部位の除去処理において実行される、膨張処理の処理回数及び縮小処理の処理回数の少なくとも一方の処理回数の設定の変更、
又は、前記第2画像を取得するための、フレーム部位の除去処理において実行される、膨張処理を行う画像領域又は縮小処理を行う画像領域の少なくとも一方の画像領域の設定の変更、の少なくとも一方の設定を変更することが可能であることを特徴とする眼鏡装用画像解析装置。 - 請求項1〜3のいずれかの眼鏡装用画像解析装置において、
前記画像領域、前記膨張処理の回数、前記縮小処理回数、の少なくとも一つの設定は、フレーム部位のみを除去し、眉毛部位及び被検眼の少なくとも一方を除去しないように設定されることを特徴とする眼鏡装用画像解析装置。 - 請求項1〜4のいずれかの眼鏡装用画像解析装置において、
前記画像処理手段は、前記第3画像から前記フレーム部位を抽出した結果であるフレーム抽出結果と,前記第1画像から被検眼の瞳孔情報を抽出した瞳孔情報抽出結果と,に基づいて、眼鏡を製作するための眼鏡パラメータを測定することを特徴とする眼鏡装用画像解析装置。 - 請求項1〜5のいずれかの眼鏡装用画像解析装置において、
眼鏡パラメータを測定するために眼鏡を装用した被検者の画像を撮影するための撮影手段を有する測定光学系を備えることを特徴とする眼鏡装用画像解析装置。 - 眼鏡を装用した被検者の画像を撮影し、撮影された前記被検眼の画像に基づいて、眼鏡パラメータを測定する眼鏡装用画像解析装置の動作を制御する制御装置において実行される眼鏡装用画像解析プログラムであって、
前記制御装置のプロセッサによって実行されることで、
撮影手段からの撮像信号に基づいて取得された第1画像であり、眼鏡フレームを含む被検者の前記第1画像から画像処理によってフレーム部位を除去することによって、前記フレーム部位が除去された第2画像を取得する第2画像取得ステップと、
前記第1画像と前記第2画像とを合成処理することによって第3画像を取得する第3画像取得ステップと、
前記3画像よりフレーム部位を抽出するフレーム抽出ステップと、
を前記制御装置に実行させることを特徴とする眼鏡装用画像解析プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013201225A JP2015066046A (ja) | 2013-09-27 | 2013-09-27 | 眼鏡装用画像解析装置、眼鏡装用画像解析プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013201225A JP2015066046A (ja) | 2013-09-27 | 2013-09-27 | 眼鏡装用画像解析装置、眼鏡装用画像解析プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015066046A true JP2015066046A (ja) | 2015-04-13 |
Family
ID=52833491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013201225A Pending JP2015066046A (ja) | 2013-09-27 | 2013-09-27 | 眼鏡装用画像解析装置、眼鏡装用画像解析プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015066046A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019515355A (ja) * | 2016-05-10 | 2019-06-06 | マテリアライズ エヌ.ブイ.Materialise N.V. | 眼鏡フレーム内にレンズを設計して配置する方法 |
WO2021039212A1 (ja) * | 2019-08-26 | 2021-03-04 | 日本電気株式会社 | システム、位置情報管理装置、位置特定方法及びプログラム |
JP2021043284A (ja) * | 2019-09-09 | 2021-03-18 | 株式会社カザック | 眼鏡試着支援装置およびプログラム |
-
2013
- 2013-09-27 JP JP2013201225A patent/JP2015066046A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019515355A (ja) * | 2016-05-10 | 2019-06-06 | マテリアライズ エヌ.ブイ.Materialise N.V. | 眼鏡フレーム内にレンズを設計して配置する方法 |
WO2021039212A1 (ja) * | 2019-08-26 | 2021-03-04 | 日本電気株式会社 | システム、位置情報管理装置、位置特定方法及びプログラム |
JP2021043284A (ja) * | 2019-09-09 | 2021-03-18 | 株式会社カザック | 眼鏡試着支援装置およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107533362B (zh) | 眼睛跟踪设备和用于操作眼睛跟踪设备的方法 | |
US10395111B2 (en) | Gaze-tracking system and method | |
JP6515542B2 (ja) | 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム | |
JP6159264B2 (ja) | 調整可能な視野を有する眼鏡デバイス及び方法 | |
US10307058B2 (en) | Ophthalmologic apparatus | |
KR102093953B1 (ko) | 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법 | |
WO2015046466A1 (ja) | 眼鏡装用パラメータ測定装置、および眼鏡装用パラメータ測定用プログラム | |
JP2020513609A (ja) | 眼距離収集のための方法及びデバイス | |
JP7221587B2 (ja) | 眼科装置 | |
JP2015066046A (ja) | 眼鏡装用画像解析装置、眼鏡装用画像解析プログラム | |
JP6379639B2 (ja) | 眼鏡装用パラメータ測定用撮影装置、眼鏡装用パラメータ測定用撮影プログラム | |
CN111479494B (zh) | 眼屈光力测定装置 | |
JP6255849B2 (ja) | 眼鏡装用パラメータ測定用撮影装置 | |
JP2017181657A (ja) | 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム | |
JP6488546B2 (ja) | 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム | |
JP6379502B2 (ja) | 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム | |
JP2018015021A (ja) | 眼科装置 | |
JP4795017B2 (ja) | 眼鏡レンズ評価装置 | |
JP6179320B2 (ja) | 眼鏡装用パラメータ測定用撮影装置 | |
JP6277649B2 (ja) | 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定用プログラム | |
JP6364733B2 (ja) | 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定用プログラム | |
JP6357771B2 (ja) | 眼鏡装用パラメータ測定用撮影装置 | |
JP2019177045A (ja) | 視標呈示装置 | |
JP7271733B2 (ja) | 眼科装置 | |
JP2015068983A (ja) | 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定用プログラム |